Din 1927 până în 2019 au fost produse peste 100 de filme la nivel mondial despre inteligența artificială. Și în timp ce unele scenarii sunt descrise într-o lumină bună, restul sunt de-a dreptul îngrozitoare. În filme precum The Terminator, The Matrix, Avengers: Age of Ultron și multe altele, industria cinematografică a plasat în imaginația noastră comună scene care demonstrează cum mașini tot mai inteligente vor cuceri lumea și vor înrobi sau vor șterge total omenirea din existență. Potențialul ca inteligențele artificiale să devină mai superioare decât orice inteligență umană zugrăvește un viitor întunecat pentru umanitate.

Mai recent, țări din întreaga lume au intrat în cursa pentru dezvoltarea inteligenței artificiale, 20 de țări din UE făcându-și publice strategiile de dezvoltare a IA atât în domeniul R&D, cât și în cel al educației. Inteligența artificială este la roșu. Dar ce aspecte etice și practice ar trebui să luăm în considerare în timp ce mergem cu toată viteza înainte în adoptarea tehnologiei IA? În obiectivul nostru comun de a transforma sectoarele de afaceri cu ajutorul inteligenței automate, ce riscuri și responsabilități ar trebui să ia în considerare inovatorii?

Da, agenții AI vor fi – și sunt deja – foarte capabili să finalizeze procese paralele cu inteligența umană. Universitățile, organizațiile private și guvernele dezvoltă în mod activ inteligența artificială cu capacitatea de a imita funcțiile cognitive umane, cum ar fi învățarea, rezolvarea problemelor, planificarea și recunoașterea vorbirii. Dar dacă acestor agenți le lipsesc empatia, instinctul și înțelepciunea în luarea deciziilor, ar trebui limitată integrarea lor în societate și, dacă da, în ce fel?

Să trecem în revistă câteva dintre considerațiile etice din spațiul IA. Ca o clauză de renunțare, acest articol nu are în niciun caz scopul de a vă convinge opinia, ci doar de a evidenția unele dintre problemele proeminente, atât mari cât și mici. Deși Kambria este un susținător al tehnologiei IA și al roboticii, nu suntem în niciun caz experți în etică și lăsăm la latitudinea dumneavoastră să decideți care este poziția dumneavoastră. Un aspirator robot este un lucru, dar întrebările etice legate de IA în medicină, aplicarea legii, apărarea militară, confidențialitatea datelor, calculul cuantic și alte domenii sunt profunde și importante de luat în considerare.

1. Pierderea locurilor de muncă și inegalitatea bogăției

Una dintre principalele preocupări pe care oamenii le au în legătură cu IA este pierderea viitoare a locurilor de muncă. Ar trebui să ne străduim să dezvoltăm pe deplin și să integrăm IA în societate dacă acest lucru înseamnă că mulți oameni își vor pierde locurile de muncă – și, foarte posibil, mijloacele de trai?

Potrivit noului raport al Institutului Global McKinsey, până în anul 2030, aproximativ 800 de milioane de oameni își vor pierde locurile de muncă în favoarea roboților alimentați de IA. Unii ar argumenta că, dacă locurile lor de muncă sunt preluate de roboți, poate că acestea sunt prea neînsemnate pentru oameni și că IA poate fi responsabilă pentru crearea unor locuri de muncă mai bune, care să profite de abilitățile umane unice care implică funcții cognitive superioare, analiză și sinteză. Un alt punct de vedere este că AI poate crea mai multe locuri de muncă – la urma urmei, oamenii vor avea sarcina de a crea acești roboți pentru început și apoi de a-i gestiona în viitor.

O problemă legată de pierderea locurilor de muncă este inegalitatea bogăției. Luați în considerare faptul că majoritatea sistemelor economice moderne cer lucrătorilor să producă un produs sau un serviciu, remunerarea lor bazându-se pe un salariu orar. Compania plătește salariile, impozitele și alte cheltuieli, profiturile rămase fiind adesea injectate înapoi în producție, formare și/sau crearea de noi afaceri pentru a crește și mai mult profiturile. În acest scenariu, economia continuă să crească.

Dar ce se întâmplă dacă introducem IA în fluxul economic? Roboții nu sunt plătiți la oră și nici nu plătesc impozite. Ei pot contribui la un nivel de 100%, cu costuri curente reduse pentru a-i menține funcționali și utili. Acest lucru deschide ușa pentru ca directorii executivi și părțile interesate să păstreze mai multe profituri ale companiei generate de forța de muncă IA, ceea ce duce la o mai mare inegalitate a bogăției. Poate că acest lucru ar putea duce la un caz în care „cei bogați” – acele persoane și companii care au mijloacele de a plăti pentru IA – să devină mai bogați.

2. Inteligența artificială este imperfectă – Ce se întâmplă dacă face o greșeală?

AI-urile nu sunt imune la greșeli, iar învățarea automată are nevoie de timp pentru a deveni utilă. Dacă sunt bine antrenate, folosind date bune, atunci AI-urile pot avea performanțe bune. Cu toate acestea, dacă alimentăm AI-urile cu date proaste sau facem erori de programare internă, AI-urile pot fi dăunătoare. Teka Chatbotul AI al Microsoft, Tay, care a fost lansat pe Twitter în 2016. În mai puțin de o zi, datorită informațiilor pe care le primea și pe care le învăța de la alți utilizatori Twitter, robotul a învățat să scuipe insulte rasiste și propagandă nazistă. Microsoft a închis imediat chatbotul, deoarece dacă i-ar fi permis să trăiască ar fi afectat în mod evident reputația companiei.

Da, IA-urile fac greșeli. Dar fac ele greșeli mai mari sau mai puține decât oamenii? Câte vieți au luat oamenii cu decizii greșite? Este mai bine sau mai rău când o IA face aceeași greșeală?

3. Ar trebui să li se permită sistemelor de IA să ucidă?

În acest discurs TEDx, Jay Tuck descrie IA-urile ca fiind un software care își scrie propriile actualizări și se reînnoiește singur. Acest lucru înseamnă că, așa cum este programată, mașina nu este creată pentru a face ceea ce vrem noi să facă – ea face ceea ce învață să facă. Jay continuă prin a descrie un incident cu un robot numit Tallon. Arma sa computerizată s-a blocat și a deschis focul în mod necontrolat după o explozie, omorând 9 oameni și rănind alți 14.

Dronele Predator, cum ar fi General Atomics MQ-1 Predator, există de peste un deceniu. Aceste avioane pilotate de la distanță pot lansa rachete, deși legea americană impune ca oamenii să ia deciziile efective de ucidere. Dar, având în vedere că dronele joacă un rol din ce în ce mai important în apărarea militară aeriană, trebuie să examinăm în continuare rolul lor și modul în care sunt utilizate. Este mai bine să folosim inteligența artificială pentru a ucide decât să punem oamenii în linia de tragere? Ce se întâmplă dacă folosim roboții doar pentru descurajare, mai degrabă decât pentru violență efectivă?

Campania pentru oprirea roboților ucigași este o organizație non-profit organizată pentru a interzice armele complet autonome care pot decide cine trăiește și cine moare fără intervenție umană. „Armele complet autonome ar fi lipsite de judecata umană necesară pentru a evalua proporționalitatea unui atac, pentru a distinge civilul de combatant și pentru a respecta alte principii de bază ale legilor războiului. Istoria arată că utilizarea lor nu ar fi limitată la anumite circumstanțe.”

4. Inteligența artificială necinstită

Dacă există o șansă ca mașinile inteligente să poată face greșeli, atunci este de domeniul posibilității ca o inteligență artificială să devină necinstită sau să creeze consecințe neintenționate din acțiunile sale în urmărirea unor obiective aparent inofensive. Un scenariu în care o inteligență artificială poate deveni necinstită este ceea ce am văzut deja în filme precum Terminator și în emisiuni TV, în care un computer superinteligent cu inteligență artificială centralizată devine conștient de sine și decide că nu mai dorește controlul uman.

În momentul de față, experții spun că tehnologia actuală de inteligență artificială nu este încă capabilă să realizeze această faptă extrem de periculoasă de autocunoaștere; cu toate acestea, viitoarele supercomputere de inteligență artificială ar putea să o facă.

Celălalt scenariu este cel în care o inteligență artificială, de exemplu, este însărcinată să studieze structura genetică a unui virus pentru a crea un vaccin care să îl neutralizeze. După ce a făcut calcule îndelungate, IA a formulat o soluție prin care armează virusul în loc să facă un vaccin din el. Este ca și cum s-ar deschide o cutie a Pandorei din zilele noastre și, din nou, intră în joc etica, unde trebuie abordate preocupări legitime pentru a preveni un astfel de scenariu.

5. Singularitatea și păstrarea controlului asupra AI-urilor

Vor evolua AI-urile pentru a depăși ființele umane? Ce se întâmplă dacă vor deveni mai inteligente decât oamenii și apoi vor încerca să ne controleze? Vor face computerele să devină oamenii învechiți? Punctul în care creșterea tehnologiei depășește inteligența umană este denumit „singularitate tehnologică”. Unii sunt de părere că acest lucru va semnala sfârșitul erei umane și că ar putea avea loc încă din 2030, pe baza ritmului de inovare tehnologică. Inteligența artificială care duce la dispariția oamenilor – este ușor de înțeles de ce avansarea inteligenței artificiale este înfricoșătoare pentru mulți oameni.

6. Cum ar trebui să tratăm IA-urile?

Ar trebui să li se acorde roboților drepturi umane sau cetățenie? Dacă evoluăm roboții până la punctul în care sunt capabili să „simtă”, acest lucru le dă dreptul la drepturi similare cu cele ale oamenilor sau ale animalelor? Dacă roboților li se acordă drepturi, atunci cum le clasificăm statutul social? Aceasta este una dintre problemele principale ale „roboeticii”, un subiect care a fost abordat pentru prima dată de Isaac Asimov în 1942. În 2017, robotul umanoid Hanson Robotics, Sophia, a primit cetățenie în Arabia Saudită. Deși unii consideră că acest lucru este mai mult o cascadorie de PR decât o recunoaștere legală reală, acesta constituie un exemplu pentru tipul de drepturi care ar putea fi acordate IA în viitor.

7. Biasarea AI

AI a devenit din ce în ce mai inerentă în sistemele de recunoaștere facială și vocală, dintre care unele au implicații comerciale reale și au un impact direct asupra oamenilor. Aceste sisteme sunt vulnerabile la prejudecăți și erori introduse de creatorii săi umani. De asemenea, datele utilizate pentru a antrena aceste sisteme de IA pot avea ele însele prejudecăți. De exemplu, algoritmii de recunoaștere facială realizați de Microsoft, IBM și Megvii au avut prejudecăți atunci când au detectat sexul persoanelor. Aceste sisteme de inteligență artificială au fost capabile să detecteze genul bărbaților albi cu mai multă acuratețe decât genul bărbaților cu pielea mai închisă. În mod similar, rezilierea de către Amazon’s.com a angajării și recrutării prin AI este un alt exemplu care demonstrează că AI nu poate fi corectă; algoritmul a preferat candidații de sex masculin în detrimentul celor de sex feminin. Acest lucru s-a datorat faptului că sistemul Amazon’s a fost antrenat cu date colectate pe o perioadă de 10 ani care proveneau în cea mai mare parte de la candidați de sex masculin.

Poate deveni AI părtinitoare? Ei bine, aceasta este o întrebare delicată. S-ar putea argumenta că mașinile inteligente nu au o busolă morală și nici un set de principii așa cum avem noi, oamenii. Cu toate acestea, chiar și busola noastră morală și principiile noastre uneori nu sunt în beneficiul umanității în ansamblu, deci cum ne asigurăm că agenții AI nu au aceleași defecte ca și creatorii lor? Dacă IA dezvoltă o anumită prejudecată față de sau împotriva rasei, sexului, religiei sau etniei, atunci vina va fi mai ales a modului în care a fost învățată și antrenată. Prin urmare, persoanele care lucrează în cercetarea în domeniul IA trebuie să țină cont de prejudecăți atunci când stabilesc ce date să folosească.

Rezumat

Da, gândul sistemelor IA din ce în ce mai prezente care depășesc inteligența umană este înfricoșător. Iar problemele etice care vin odată cu adoptarea IA sunt complexe. Cheia va fi să ținem cont de aceste aspecte pentru a analiza problemele societale mai largi aflate în joc. Dacă IA este bună sau rea poate fi examinată din mai multe unghiuri diferite, fără ca o singură teorie sau cadru să fie cel mai bun. Trebuie să continuăm să învățăm și să rămânem informați pentru a lua decizii bune pentru viitorul nostru.

Apel deschis pentru scriitori

Îți place să scrii despre subiecte tehnologice ca acesta? Atunci alăturați-vă provocării de conținut Kambria și împărtășiți-vă cunoștințele și expertiza cu comunitatea noastră de dezvoltatori în creștere. Ați putea primi peste 200 de dolari pentru cea mai bună contribuție. Pentru detalii complete despre Content Challenge, faceți clic aici.

Aderă la buletinul informativ Kambria

.

Lasă un răspuns

Adresa ta de email nu va fi publicată.