W przełomowej pracy na temat AI, zatytułowanej Computing Machinery and Intelligence, Alan Turing słynnie zapytał: „Czy maszyny mogą myśleć?” – lub, dokładniej, czy maszyny mogą z powodzeniem imitować myślenie?
70 lat później odpowiedź wciąż brzmi „nie”, ponieważ maszyna nie przeszła testu Turinga.
Turing wyjaśnia, że interesują go maszyny, które „są przeznaczone do wykonywania wszelkich operacji, które mogłyby być wykonywane przez ludzki komputer”. Innymi słowy, interesują go złożone maszyny cyfrowe.
Ponieważ osiągnięcie myślącej maszyny cyfrowej jest kwestią ewolucji maszyn, uzasadnia to, aby zacząć od początku historii maszyn.
Maszyna to urządzenie, które wykonuje pracę. W terminologii inżynierskiej, praca oznacza przenoszenie energii z jednego obiektu na drugi. Maszyny umożliwiają nam zastosowanie większej siły i/lub wykonanie jej w bardziej efektywny sposób, co skutkuje wykonaniem większej ilości pracy.
Nowoczesne maszyny – takie jak powyższy robot Boston Dynamics, Atlas – wykorzystują setki części, w tym połączenia hydrauliczne, tłoki, koła zębate, zawory i tak dalej, aby wykonać złożone zadania, takie jak samokorygująca się stabilizacja, a nawet salto w tył.
Maszyny proste
Jednakże „maszyny proste” również pasują do naszej wcześniejszej definicji, w tym koła, dźwignie, koła pasowe, pochyłe płaszczyzny, kliny i śruby. W rzeczywistości wszystkie maszyny mechaniczne są wykonane z jakiejś kombinacji tych sześciu prostych maszyn.
Atlas jest nie tylko maszyną mechaniczną, ale także cyfrową.
Proste maszyny mechaniczne mają miliony lat. Na przykład „narzędzia kamieniarskie są tak stare jak społeczeństwo ludzkie”, a archeolodzy znaleźli narzędzia kamienne „sprzed 1,5 do 2 milionów lat.”
Maszyny złożone
Kombinacje maszyn prostych mogą być użyte do stworzenia wszystkiego, od taczki do roweru do mechanicznego robota.
W rzeczywistości zapiski o mechanicznych robotach pochodzą sprzed ponad 3000 lat.
Tekst daoistyczny Lieh-tzu, napisany w V wieku p.n.e., zawiera relację z dużo wcześniejszego spotkania króla Mu z dynastii Zhou (1023-957 p.n.e.) z inżynierem o imieniu Yen Shi. Yen Shi przedstawił królowi naturalnej wielkości mechaniczny automat w kształcie człowieka:
„Król wpatrywał się w postać w zdumieniu. Szła szybkimi krokami, poruszając głową w górę i w dół, tak że każdy wziąłby ją za żywego człowieka. Sztukmistrz dotknął jej podbródka, a ona zaczęła śpiewać, idealnie w rytmie. Dotknął jego ręki, a on zaczął pozować, utrzymując idealny czas… Gdy przedstawienie dobiegało końca, robot mrugnął okiem i zrobił zaloty do obecnych dam, na co król wpadł w furię i kazałby Yen Shi wykonać egzekucję na miejscu, gdyby ten, w śmiertelnym strachu, natychmiast nie rozebrał robota na kawałki, by pokazać mu, czym jest naprawdę. I rzeczywiście, okazało się, że jest to tylko konstrukcja ze skóry, drewna, kleju i lakieru…”
Babbage’owi nigdy nie udało się zbudować kompletnej maszyny, ale jego „technika kart dziurkowanych” została później wykorzystana w pierwszych maszynach cyfrowych.
Maszyny cyfrowe (komputery)
Przejście od komputerów mechanicznych do cyfrowych było ogromnym skokiem w drodze do miejsca, w którym znajdujemy się dzisiaj.
W późnych latach trzydziestych i czterdziestych pojawiło się kilka komputerów cyfrowych, konkurujących o miejsce „pierwszego komputera cyfrowego”.
Powszechnie uważa się, że ENIAC jest pierwszym komputerem cyfrowym, kończącym budowę w 1946 roku, ponieważ był pierwszym, który był w pełni funkcjonalny.
Inne komputery cyfrowe to Colossus z 1943 roku, który pomógł brytyjskim łamaczom kodów odczytać zaszyfrowane niemieckie wiadomości, oraz komputer ABC z 1942 roku.
Postęp stąd gwałtownie przyspieszył, z postępami takimi jak przechowywanie programów w pamięci, RAM, grafika w czasie rzeczywistym i tranzystory zostały wydane w stosunkowo szybkim tempie.
Uczenie się maszyn
W końcu, wraz z pojawieniem się złożonych maszyn cyfrowych, możemy poruszyć temat uczenia się maszyn.
Jak zbadano na początku, wzrost maszyn skłonił Alana Turinga do zapytania, w 1950 roku, „czy maszyny mogą myśleć?”. Pięć lat później, w Dartmouth ukazała się przełomowa praca na temat AI, a podstawowe zasady tej dziedziny pozostały podobne od tego czasu.
W 1955 roku, M.L. Minsky napisał:
A „maszyna może być 'wytrenowana’ przez proces 'prób i błędów’, aby nabyć jedną z szeregu funkcji wejścia-wyjścia. Such a machine, when placed in an appropriate environment and given a criterior of 'success’ or 'failure’ can be trained to exhibit 'goal-seeking’ behavior.”
In other words, machine learning algorithms build mathematical models on 'training data’ to make decisions, without being explicitly programmed to make those decisions.
That is the key difference between a calculator and machine learning (or AI): Kalkulator, lub jakakolwiek forma automatu, ma z góry ustalone dane wyjściowe. AI podejmuje probabilistyczne decyzje w locie.
Maszyna mechaniczna ma również znacznie surowsze ograniczenia fizyczne, jeśli chodzi o to, ile komponentów maszyny (np. kół pasowych, dźwigni, kół zębatych) można zmieścić w urządzeniu, podczas gdy nowoczesny procesor maszyny cyfrowej może zmieścić miliardy tranzystorów.
Prawdziwe określenie „uczenie maszynowe” zostało ukute przez Arthura Samuela w 1952 roku, po tym jak opracował on program komputerowy do gry w warcaby wykorzystujący uczenie się na pamięć.
W 1957 roku Frank Rosenblatt stworzył perceptron Mark I – algorytm uczenia nadzorowanego złożony z klasyfikatorów binarnych – na potrzeby rozpoznawania obrazów.
Po zaprezentowaniu swojej pracy marynarce wojennej USA w 1958 r. The New York Times donosił:
Perceptron jest „zarodkiem komputera elektronicznego, który, jak się oczekuje, będzie w stanie chodzić, mówić, widzieć, pisać, reprodukować się i być świadomym swojego istnienia.”
Nawet w 1958 r. naukowcy przewidywali dzień czującej SI.
Późniejsze osiągnięcia obejmowały sieci neuronowe typu feedforward (jak perceptron, ale z wieloma warstwami), algorytm najbliższego sąsiada w ’67, propagację wsteczną na komputerach w latach 70-tych (która jest obecnie wykorzystywana do trenowania głębokich sieci neuronowych), algorytmy boostingu na początku lat 90-tych oraz LSTM w ’97.
Ulepszenia dzięki danym i mocy obliczeniowej
W ostatnim kursie AI Andrew Ng, wiodącego badacza AI, zauważa on, że nie ma „prawie żadnego postępu” w sztucznej inteligencji ogólnej, ale niesamowity postęp dokonał się w „wąskiej inteligencji” – funkcjach wejścia-wyjścia, „które robią jedną rzecz, taką jak inteligentny głośnik lub samokierujący się samochód.”
Na wysokim poziomie AI wciąż polega na „uczeniu się funkcji, która mapuje od x do y.”
Niesamowite postępy, które widzieliśmy ostatnio, wynikają głównie z eksplozji danych i mocy obliczeniowej, obok lepszych (wyższej jakości) danych i większej liczby inżynierów AI.
Więcej danych i mocy obliczeniowej naturalnie zwiększa dokładność większości modeli AI, zwłaszcza w głębokim uczeniu.
Demokratyzacja AI
Wraz z ewolucją architektur AI, mocy obliczeniowej i danych, AI zyskała ostatnio silną pozycję w przemyśle, dzięki rozpowszechnianiu bardziej dostępnych narzędzi AI.
Wyłanianie się narzędzi, które czynią technologie bardziej dostępnymi, ma długą historię. Na przykład prasa drukarska Gutenberga zdemokratyzowała wiedzę w XV wieku.
W dobie Internetu, narzędzia „bez kodu”, takie jak WordPress i Wix, zdemokratyzowały budowanie stron.
Podążając za tym samym wątkiem, przez dziesięciolecia po propozycjach AI w latach 50-tych, AI była w dużej mierze ograniczona do środowisk akademickich, nie widząc wielu praktycznych zastosowań.
Narzędzia takie jak TensorFlow i Keras umożliwiły większej liczbie firm wdrożenie AI, choć nadal są to skomplikowane technologicznie narzędzia, które wymagają zatrudnienia wysoko opłacanych inżynierów uczenia maszynowego.
Podsumowując kwestię złożoności, brak specjalistów w dziedzinie nauki o danych skutkuje niebotycznymi wynagrodzeniami dla tych, którzy potrafią tworzyć systemy AI. W rezultacie duże korporacje, takie jak FAANGs, dominują w dużej części AI.
Powstanie narzędzi AI bez kodu, takich jak Apteo, zmniejsza koszty wstępne, jednocześnie usuwając potrzebę wiedzy technicznej, umożliwiając prawdziwie zdemokratyzowaną AI.
No Code AI
Narzędzia AI bez kodu są logicznym kolejnym krokiem na drodze do demokratyzacji AI.
Wcześniejsi ludzie 2 miliony lat temu stworzyli narzędzia kamieniarskie, aby móc wykonać więcej pracy niż za pomocą rąk.
Dzisiaj AI sprawia, że jesteśmy bardziej wydajni i może wykonywać pracę za nas, natomiast No-code AI przynosi te korzyści każdemu.
Wraz z pojawieniem się narzędzi No-code AI przechodzimy do ery dostępnej AI.