Od 1927 do 2019 roku na całym świecie wyprodukowano ponad 100 filmów o sztucznej inteligencji. I choć niektóre scenariusze są przedstawiane w dobrym świetle, reszta jest wręcz przerażająca. W filmach takich jak Terminator, Matrix, Avengers: Age of Ultron i wielu innych, przemysł filmowy umieścił w naszej wspólnej wyobraźni sceny pokazujące, jak bardziej inteligentne maszyny przejmą władzę nad światem i zniewolą lub całkowicie wymażą ludzkość z istnienia. Potencjał dla AI, aby stać się lepszym niż jakakolwiek ludzka inteligencja, maluje mroczną przyszłość dla ludzkości.

Ostatnio kraje na całym świecie przystąpiły do wyścigu o rozwój sztucznej inteligencji, a 20 krajów UE opublikowało swoje strategie rozwoju AI zarówno w dziedzinie badań i rozwoju, jak i edukacji. Sztuczna inteligencja rozgrzewa się do czerwoności. Ale jakie kwestie etyczne i praktyczne powinniśmy rozważyć, podążając pełną parą w kierunku wdrażania technologii AI? Jakie ryzyko i odpowiedzialność powinni wziąć pod uwagę innowatorzy w naszym wspólnym dążeniu do przekształcenia sektorów biznesowych za pomocą inteligencji maszyn?

Tak, agenci AI będą – i już są – bardzo zdolni do realizacji procesów równoległych do ludzkiej inteligencji. Uniwersytety, organizacje prywatne i rządy aktywnie rozwijają sztuczną inteligencję, która potrafi naśladować ludzkie funkcje poznawcze, takie jak uczenie się, rozwiązywanie problemów, planowanie i rozpoznawanie mowy. Ale jeśli tym agentom brakuje empatii, instynktu i mądrości w podejmowaniu decyzji, czy ich integracja ze społeczeństwem powinna być ograniczona, a jeśli tak, to w jaki sposób?

Przeanalizujmy niektóre z etycznych rozważań w przestrzeni AI. Z zastrzeżeniem, że artykuł ten nie ma na celu przekonania was do swojej opinii, a jedynie zwrócenie uwagi na niektóre z istotnych kwestii, zarówno dużych jak i małych. Podczas gdy Kambria jest zwolennikiem technologii AI i robotyki, nie jesteśmy w żaden sposób ekspertami w dziedzinie etyki i pozostawiamy to do decyzji, gdzie stoisz. Robot próżniowy to jedno, ale etyczne pytania dotyczące AI w medycynie, egzekwowaniu prawa, obronie wojskowej, prywatności danych, obliczeniach kwantowych i innych dziedzinach są głębokie i ważne do rozważenia.

1. Utrata miejsc pracy i nierówność majątkowa

Jedną z podstawowych obaw ludzi związanych z AI jest przyszła utrata miejsc pracy. Czy powinniśmy dążyć do pełnego rozwoju i integracji AI ze społeczeństwem, jeśli oznacza to, że wielu ludzi straci pracę – i całkiem możliwe, że środki do życia?

Według nowego raportu McKinsey Global Institute, do roku 2030 około 800 milionów ludzi straci pracę na rzecz robotów napędzanych przez AI. Niektórzy twierdzą, że jeśli ich miejsca pracy zostaną przejęte przez roboty, być może są one zbyt męskie dla ludzi i że AI może być odpowiedzialna za tworzenie lepszych miejsc pracy, które wykorzystują unikalne ludzkie zdolności obejmujące wyższe funkcje poznawcze, analizę i syntezę. Inną kwestią jest to, że AI może stworzyć więcej miejsc pracy – w końcu ludzie będą mieli za zadanie stworzenie tych robotów na początek, a następnie zarządzanie nimi w przyszłości.

Jedną z kwestii związanych z utratą miejsc pracy jest nierówność majątkowa. Rozważmy, że większość nowoczesnych systemów gospodarczych wymaga od pracowników wytwarzania produktu lub usługi z ich wynagrodzeniem opartym na stawce godzinowej. Firma płaci pensje, podatki i inne wydatki, a pozostałe zyski są często przeznaczane z powrotem na produkcję, szkolenia i/lub tworzenie kolejnych firm, aby jeszcze bardziej zwiększyć zyski. W tym scenariuszu gospodarka nadal rośnie.

Ale co się stanie, jeśli wprowadzimy AI do przepływu gospodarczego? Roboty nie dostają wynagrodzenia godzinowego, ani nie płacą podatków. Mogą wnieść wkład na poziomie 100% przy niskich kosztach bieżących, aby utrzymać je sprawne i użyteczne. To otwiera drzwi dla prezesów i udziałowców, którzy mogą zatrzymać więcej zysków firmy wygenerowanych przez pracowników AI, co prowadzi do większej nierówności majątkowej. Być może doprowadzi to do sytuacji, w której „bogaci” – te osoby i firmy, które mają środki na opłacenie AI – staną się bogatsze.

2. AI jest niedoskonała – co jeśli popełni błąd?

AI nie są odporne na popełnianie błędów, a uczenie maszynowe wymaga czasu, aby stało się użyteczne. Jeśli SI jest dobrze wytrenowana, używając dobrych danych, to może osiągać dobre wyniki. Jeśli jednak podamy AI złe dane lub popełnimy błędy w wewnętrznym programowaniu, AI mogą być szkodliwe. Teka Microsoft’s AI chatbot, Tay, który został udostępniony na Twitterze w 2016 roku. W mniej niż jeden dzień, ze względu na informacje, które otrzymywał i uczył się od innych użytkowników Twittera, robot nauczył się pluć rasistowskimi obelgami i nazistowską propagandą. Microsoft natychmiast wyłączył chatbota, ponieważ dopuszczenie go do życia w oczywisty sposób zaszkodziłoby reputacji firmy.

Tak, AI popełniają błędy. Ale czy popełniają one więcej czy mniej błędów niż ludzie? Ile istnień ludzkich zostało pozbawionych życia przez błędne decyzje? Czy lepiej lub gorzej jest, gdy SI popełnia ten sam błąd?

3. Czy systemom SI powinno się pozwolić zabijać?

W tym wystąpieniu na TEDx, Jay Tuck opisuje SI jako oprogramowanie, które pisze własne aktualizacje i odnawia się samo. Oznacza to, że zaprogramowana maszyna nie jest stworzona, aby robić to, co chcemy, aby robiła – robi to, czego się nauczy. Jay opisuje dalej incydent z robotem o nazwie Tallon. Jego skomputeryzowana broń zacięła się i wystrzeliła niekontrolowanie po eksplozji zabijając 9 osób i raniąc 14 kolejnych.

Drony drapieżne, takie jak General Atomics MQ-1 Predator, istnieją już od ponad dekady. Te zdalnie sterowane samoloty mogą wystrzeliwać pociski, chociaż prawo amerykańskie wymaga, aby człowiek podejmował rzeczywiste decyzje o zabiciu. Ponieważ jednak drony odgrywają coraz większą rolę w lotniczej obronie wojskowej, musimy dokładniej zbadać ich rolę i sposób wykorzystania. Czy lepiej jest używać SI do zabijania niż wystawiać ludzi na linię ognia? A gdybyśmy używali robotów tylko do odstraszania, a nie do faktycznej przemocy?

Kampania na rzecz powstrzymania zabójczych robotów jest organizacją non-profit zorganizowaną w celu zakazania w pełni autonomicznych broni, które mogą decydować o tym, kto żyje i umiera bez interwencji człowieka. „W pełni autonomicznym broniom brakowałoby ludzkiego osądu niezbędnego do oceny proporcjonalności ataku, odróżnienia cywila od bojownika i przestrzegania innych podstawowych zasad prawa wojennego. History shows their use would not be limited to certain circumstances.”

4. Rogue AIs

Jeśli istnieje szansa, że inteligentne maszyny mogą popełniać błędy, to jest w sferze możliwości, że AI może się zbłaźnić, lub stworzyć niezamierzone konsekwencje swoich działań w dążeniu do pozornie nieszkodliwych celów. Jednym ze scenariuszy zbójeckiej SI jest to, co już widzieliśmy w filmach takich jak Terminator i programach telewizyjnych, gdzie superinteligentny scentralizowany komputer SI staje się samoświadomy i decyduje, że nie chce już ludzkiej kontroli.

Już teraz eksperci twierdzą, że obecna technologia AI nie jest jeszcze zdolna do osiągnięcia tego niezwykle niebezpiecznego wyczynu samoświadomości; jednak przyszłe superkomputery AI mogą to zrobić.

Inny scenariusz to taki, w którym AI, na przykład, otrzymuje zadanie zbadania struktury genetycznej wirusa w celu stworzenia szczepionki, która go zneutralizuje. Po przeprowadzeniu długich obliczeń SI formułuje rozwiązanie, w którym broni wirusa, zamiast stworzyć z niego szczepionkę. To jak otwarcie współczesnej puszki Pandory i znów w grę wchodzi etyka, gdzie należy zająć się uzasadnionymi obawami, aby zapobiec takiemu scenariuszowi.

5. Singularity and Keeping Control Over AIs

Czy AIs ewoluują, by przewyższyć istoty ludzkie? Co jeśli staną się mądrzejsze od ludzi, a potem spróbują nas kontrolować? Czy komputery uczynią ludzi przestarzałymi? Punkt, w którym rozwój technologii przewyższy ludzką inteligencję jest określany mianem „technologicznej osobliwości”. Niektórzy uważają, że będzie to sygnał końca ery ludzkiej i że może to nastąpić już w 2030 roku w oparciu o tempo innowacji technologicznych. AI prowadzące do wyginięcia człowieka – łatwo zrozumieć, dlaczego postęp AI jest przerażający dla wielu ludzi.

6. Jak powinniśmy traktować AI?

Czy roboty powinny otrzymać prawa człowieka lub obywatelstwo? Jeśli rozwiniemy roboty do tego stopnia, że będą zdolne do „odczuwania”, czy to uprawnia je do praw podobnych do praw ludzi lub zwierząt? Jeśli roboty otrzymają prawa, to jak określimy ich status społeczny? Jest to jedna z podstawowych kwestii w „roboetyce”, temacie, który został po raz pierwszy poruszony przez Isaaca Asimova w 1942 roku. W 2017 r. humanoidalny robot Hanson Robotics, Sophia, otrzymał obywatelstwo w Arabii Saudyjskiej. Chociaż niektórzy uważają, że jest to bardziej chwyt PR-owy niż rzeczywiste uznanie prawne, stanowi to przykład rodzaju praw, jakie SI mogą zostać przyznane w przyszłości.

7. stronniczość AI

AI staje się coraz bardziej nieodłącznym elementem systemów rozpoznawania twarzy i głosu, z których niektóre mają rzeczywiste implikacje biznesowe i bezpośrednio wpływają na ludzi. Systemy te są podatne na uprzedzenia i błędy wprowadzane przez ich ludzkich twórców. Również dane wykorzystywane do szkolenia tych systemów AI mogą być stronnicze. Na przykład, algorytmy rozpoznawania twarzy stworzone przez Microsoft, IBM i Megvii miały błędy podczas wykrywania płci ludzi. Te systemy AI były w stanie wykryć płeć białych mężczyzn bardziej precyzyjnie niż płeć mężczyzn o ciemniejszej karnacji. Podobnie, rozwiązanie Amazon’s.com dotyczące zatrudniania i rekrutacji przez AI jest kolejnym przykładem, który pokazuje, że AI nie może być sprawiedliwa; algorytm preferował kandydatów płci męskiej w stosunku do kobiet. Stało się tak, ponieważ system Amazona został przeszkolony z danych zebranych w ciągu 10 lat, które pochodziły głównie od kandydatów płci męskiej.

Czy AI może stać się stronnicza? Cóż, to podchwytliwe pytanie. Można by argumentować, że inteligentne maszyny nie mają kompasu moralnego ani zestawu zasad, tak jak my, ludzie. Jednak nawet nasz kompas moralny i zasady czasami nie przynoszą korzyści całej ludzkości, więc jak możemy zapewnić, że agenci SI nie mają tych samych wad, co ich twórcy? Jeśli SI rozwinie pewne uprzedzenia wobec lub przeciwko rasie, płci, religii lub pochodzeniu etnicznemu, to wina będzie leżała głównie po stronie tego, jak była uczona i trenowana. Dlatego ludzie pracujący przy badaniach nad AI muszą mieć na uwadze uprzedzenia przy ustalaniu, jakich danych użyć.

Podsumowanie

Tak, myśl o coraz bardziej obecnych systemach AI, które przewyższają ludzką inteligencję, jest przerażająca. A kwestie etyczne, które wiążą się z przyjęciem AI, są złożone. Kluczem będzie pamiętanie o tych kwestiach w celu przeanalizowania szerszych problemów społecznych, które wchodzą w grę. To, czy AI jest dobra czy zła, może być rozpatrywane z wielu różnych punktów widzenia, przy czym żadna teoria ani ramy nie są najlepsze. Musimy kontynuować naukę i pozostać poinformowani, aby podejmować dobre decyzje dla naszej przyszłości.

Otwarte zaproszenie dla pisarzy

Czy lubisz pisać o tematach technologicznych, takich jak ten? Dołącz do Kambria Content Challenge i podziel się swoją wiedzą i doświadczeniem z naszą rosnącą społecznością programistów. Za najlepsze zgłoszenie możesz otrzymać ponad 200$. Aby uzyskać szczegółowe informacje na temat naszego Wyzwania Treści, kliknij tutaj.

Dołącz do biuletynu Kambria

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.