Erorile tehnologice se pot întoarce împotriva utilizatorilor

0
18

masina-Google

Mai multe erori spectaculoase au arătat în ultimele luni că realizările tehnologice de vârf sunt şi ele supuse greşelii, roboţii şi aplicaţiile putându-se întoarce împotriva utilizatorilor, relatează miercuri AFP.

Aplicaţia de navigaţie rutieră Waze a dus în luna februarie doi soldaţi israelieni într-o tabără de refugiaţi palestinieni din Cisiordania, declanşând confruntări violente. Eroarea s-a soldat cu un mort din rândul palestinienilor şi circa 15 răniţi.

În luna martie, Google Car, maşina autonomă a Google, a fost implicată într-un incident pe un drum din California. Gigantul tehnologic american şi-a asumat o parte din responsabilitatea creierului informatic al maşinii în accident, declanşând îndoieli în privinţa securităţii acestui vehicul al viitorului.

Anul trecut, un muncitor a fost ucis de un robot la banda de montaj a unei uzine Volkswagen din Germania, dând naştere la o controversă asupra robotizării întreprinderilor. Tânărul de 22 de ani lucra la maşină când a fost lovit în piept de robotul care l-a împins într-o placă metalică.

Dacă progresele tehnologice — supraveghere video, extinderea reţelelor de comunicaţii ce permit lansarea de mesaje de ajutor de pe mare sau din munţi, dispozitive de monitorizare medicală — dau impresia unei siguranţe crescute, noile riscuri s-ar putea înmulţi pe măsură ce oamenii vor transfera tot mai multe funcţii maşinilor. Se poate crede că „este doar o problemă de maturitate tehnologică, maşinile în cauză fiind încă tinere şi având nevoie de îmbunătăţiri, şi este nevoie de o perioadă între şase luni şi trei ani pentru ca bug-urile să fie înlăturate”, afirmă Valerie Peugeot de la Orange Labs.

Însă „eu cred că limitele oricărui produs tehnologic nu stau în acest lucru: delegăm tehnologiei alegeri care erau opţiuni umane”, adaugă ea. Impresia de siguranţă, de confort adusă de tehnologie are un preţ: cel al supravegherii, apreciază Valerie Peugeot.

„Nanotehnolgia a fost introdusă peste tot, domotica este astăzi un lucru obişnuit. Poate fi foarte plăcut în viaţa zilnică, lucrurile se simplifică, dar în acelaşi timp se plăteşte cu o potenţială invadare a intimităţii”, avertizează ea. Această problemă i-a preocupat pe specialiştii firmei franceze Aldebaran, care comercializează roboţi umanoizi, destinaţi să ajute persoane cu handicap sau vârstnice. Capabili să analizeze comportamentul interlocutorilor, roboţii le pot detecta trăirile, modificându-şi conduita în consecinţă.

„Cum robotul ne priveşte în permanenţă şi poate căuta informaţii, el poate fi un fel de superspion”, recunoaşte Rodolphe Gelin, responsabil cu inovaţia la Aldebaran, filială a grupului japonez SoftBank.

Persoane rău intenţionate ar putea deturna astfel amabilul companion de oţel pentru a recupera — şi chiar vinde — informaţii despre proprietarii lui sau l-ar putea face să deschidă uşa unor necunoscuţi, adaugă Gelin.

„Pentru noi este foarte important să protejăm roboţii de agresiuni exterioare”, afirmă el. Cu alte cuvinte, roboţii trebuie protejaţi la fel ca obiectele conectate sau reţelele informatice ale unei firme împotriva hackerilor. În plus, cine răspunde în cazul în care robotul îi face rău persoanei pe care trebuie să o ajute? — se întreabă Gelin. El poate începe să facă orice, la fel ca Tay, maşina Microsoft care a trimis în luna martie mesaje rasiste, după ce a asimilat bine ceea ce l-au învăţat internauţii.

Un robot este ca un animal domestic, apreciază Rodolphe Gelin şi, dacă producătorul este dator să livreze o maşină cât se poate de bine calibrată, deţinătorul ei trebuie să supravegheze atent procesul de învăţare care urmează, ţinând seama că ea progresează asimilând din ceea ce o înconjoară. (Text: Agerpres, Foto: engadget.com)

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.