Co to jest sztuczna inteligencja LaMDA firmy Google i dlaczego inżynierowie Google uważają, że ma to sens?

Co to jest sztuczna inteligencja LaMDA firmy Google i dlaczego inżynierowie Google uważają, że ma to sens?

Starszy inżynier Google powiedział , że sztuczna inteligencja LaMDA stała się inteligentna. Niezależnie od tego, czy uważasz to za niepokojące, czy ekscytujące, jest to bardzo odważne twierdzenie i być może trudne do udowodnienia, nawet jeśli było to całkowicie prawdziwe.

Co to jest LAMD?

LaMDA to skrót od Language Model for Dialog Application. Innymi słowy, jest to model języka uczenia maszynowego zaprojektowany specjalnie do tworzenia naturalnego dialogu. Techniki uczenia maszynowego umożliwiają komputerom wykrywanie wzorców i relacji w danych. Na przykład możesz „wytrenować” algorytm uczenia maszynowego, taki jak GPT-3 (kolejny zaawansowany system), na wszystkich dziełach Szekspira, a następnie zlecić mu generowanie nowych oryginalnych tekstów, które czyta się jak Szekspir.

Jak wyjaśnia Sundar Pichai (dyrektor generalny Google) w wywiadzie dla Yahoo Finance , LaMDA to system, który wyróżnia się tym, że jest specjalnie przeszkolony w zakresie dialogu. Celem jest umożliwienie systemom Google prowadzenia otwartego dialogu między ludźmi z użytkownikami.

Innymi słowy, osoby, które proszą produkty Google o określone rzeczy, nie powinny zmieniać sposobu myślenia ani mowy. Mogą wchodzić w interakcje z systemem komputerowym w taki sam sposób, jak z inną osobą.

Pod maską wszystkie nowoczesne modele uczenia maszynowego są złożonymi modelami matematycznymi i statystycznymi. Generują algorytmy na podstawie wzorców, które znajdują w danych. Daj im wystarczającą ilość wysokiej jakości danych, a te algorytmy staną się niezwykle skuteczne w robieniu rzeczy, które tylko ludzie lub inne czujące istoty byli w stanie zrobić do tej pory.

Dlaczego inżynier Google uważa, że ​​LaMDA jest rozsądny?

Inżynierem, o którym mowa, jest Blake Lemoine, który opublikował wywiad  między sobą a LaMDA jako część swojej argumentacji, dlaczego LaMDA może być rozsądna. Lemoine spędził miesiące rozmawiając z oprogramowaniem, przesłuchując go, zadając trudne pytania i nie mogąc uwierzyć, że jego złożone i adekwatne odpowiedzi mogą być wytworem czegokolwiek innego niż czująca istota.

Byłoby lepiej, gdyby każdy, kto chce zrozumieć, dlaczego Lemoine myśli w ten sposób, przeczytał odpowiedzi LaMDA, aby zrozumieć, dlaczego jest to tak przekonujące stanowisko. Odpowiedzi LaMDA są tak ludzkie, że przypominają fikcyjną sztuczną inteligencję osobistego asystenta z Her Spike’a Jonze’a , historii, w której człowiek nawiązuje poważny związek z konwersacyjną sztuczną inteligencją.

Niezależnie od tego, czy twierdzenia Lemoine dotyczące LaMDA mają jakąkolwiek wagę, warto zauważyć, że celem projektu LaMDA jest stworzenie naturalnego, wiarygodnego otwartego dialogu. W tym sensie jego przekonanie wskazuje, że Google odniósł niezwykły sukces w tworzeniu wiarygodnego dialogu. Jeśli jakikolwiek system sztucznej inteligencji miałby przekonać osobę, że jest inteligentny, najprawdopodobniej będzie to system specjalnie do tego zaprojektowany.

Problem polega na tym, że twierdzenia o rozsądku nie są tak naprawdę weryfikowalne (a przynajmniej niewykonalne lub etycznie weryfikowalne) z wielu powodów naukowych i filozoficznych. Aby zrozumieć dlaczego, musimy pokrótce zastanowić się, co oznacza „uczucie”.

Czym jest wrażliwość?

Słowo „uczucie” zasadniczo oznacza, że ​​coś (kot, osoba lub magiczny dywan) ma zdolność odczuwania. ma ten sam rdzeń słowa co „sentymentalny” lub „sentyment”. Uczucie oznacza nie tylko, że coś ma zdolność odczuwania. Twój termostat prawie na pewno nie jest świadomy, pomimo jego zdolności do pomiaru temperatury. Wręcz przeciwnie, wrażliwość jest subiektywnym przeżywaniem uczuć, które implikuje przede wszystkim obecność „podmiotu”.

Niebezpiecznie jest tu ugrzęznąć w semantyce, ponieważ prawdopodobnie Lemoine używa słowa „uczucie” zamiennie z odrębnymi pojęciami, takimi jak „rozum”, „inteligencja” i „świadomość”. Tak więc, na zasadzie argumentacji, najłagodniejszą interpretacją jest tutaj to, że Lemoine uważa Lamdę za samoświadomą istotę, zdolną do odczuwania rzeczy, posiadania przekonań i doświadczania rzeczy w inny sposób w sposób, który zwykle przypisujemy żywym istotom.

W artykule uzupełniającym Lemoine omawia to, w co jego zdaniem LaMDA „chce” i „w co wierzy”, co potwierdza ideę, że „uczucie” w jego prezentacji oznacza więcej niż ścisła definicja słownikowa.

Przede wszystkim nie rozumiemy uczuć i świadomości

Oto rzecz: stosunkowo niewiele wiemy o umyśle, świadomości, inteligencji i co to znaczy być istotą z tymi atrybutami. Jak na ironię, technologia uczenia maszynowego może ostatecznie pomóc nam odkryć niektóre tajemnice naszych umysłów i mózgów, w których one istnieją.

Podczas gdy filozofowie i naukowcy porządkują „czarną skrzynkę” świadomości , nadal wydaje się, że jest ona wynikiem czegoś większego niż suma jej części. Świadomość wydaje się być czymś „wschodzącym”. Jest to „duch” generowany przez interakcję wielu różnych podsystemów neuronowych, z których żaden nie wydaje się sam w sobie inteligentny.

Podobnie złożona sztuczna inteligencja, taka jak system generowania obrazu DALL-E 2, składa się z prostszych modeli uczenia maszynowego, które współdziałają ze sobą w celu stworzenia produktu końcowego. Temat złożoności wynikającej z interakcji prostszych systemów jest powszechny w świecie AI i choć bardzo dobrze rozumiemy, jak działa każdy podkomponent, to efekty końcowe są zwykle całkowicie nieprzewidywalne.

Czy w ogóle możemy rozpoznać inteligencję w AI?

Gdyby, dla dobra argumentacji, sztuczna inteligencja rzeczywiście była świadoma w najprawdziwszym znaczeniu tego słowa, czy moglibyśmy to w ogóle powiedzieć? LaMDA został zaprojektowany do naśladowania i przewidywania wzorców dialogów między ludźmi, więc ta talia jest naprawdę trudna, jeśli chodzi o wyzwalanie rzeczy, które ludzie kojarzą z ludzką inteligencją. Jednak zajęło nam dużo czasu, aby uznać naczelne inne niż ludzie i zwierzęta, takie jak delfiny, ośmiornice i słonie, za czujące, mimo że w zasadzie są one praktycznie naszymi braćmi i siostrami.

Inteligentna sztuczna inteligencja może być tak obca, że ​​nawet nie wiemy, że patrzymy na nią prosto przed siebie. Jest to szczególnie prawdopodobne, ponieważ nie wiemy, jakie są warunki progowe dla pojawienia się inteligencji. Nietrudno sobie wyobrazić, że właściwa kombinacja danych i podsystemów sztucznej inteligencji, zmieszanych we właściwy sposób, może nagle spowodować coś, co można nazwać świadomym, ale może to pozostać niezauważone, ponieważ nie wygląda na coś, co możemy zrozumieć .

Jeśli wygląda jak kaczka…

Ostatni duży problem z twierdzeniami, że maszyny są inteligentne, to ten sam problem z twierdzeniami, że wszystko inne jest inteligentne, w tym ludzie. Mówiąc filozoficznie, nie wiesz, czy któraś z osób, z którymi rozmawiasz, jest naprawdę inteligentna, czy nie. Jest to klasyczny filozoficzny problem zombie , będący eksperymentem myślowym na hipotetycznych stworzeniach, które są całkowicie nie do odróżnienia od ludzi, z wyjątkiem tego, że brakuje im inteligencji lub jakiegokolwiek świadomego doświadczenia.

Jednak, jak argumentował słynny test Alana Turinga, nie ma znaczenia, czy sztuczna inteligencja „naprawdę” myśli i czuje. Ważne jest to, że może naśladować myślenie i uczucie tak dobrze, że nie możemy ich odróżnić. W zależności od tego, kogo zapytasz, LaMDA zdał już test Turinga , co może sprawić, że nieweryfikowalne twierdzenia Lemoine’a staną się dyskusyjne.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *