Nie, sztuczna inteligencja Google nie jest świadoma

według Historia otwierająca oczy W sobotnim Washington Post inżynier Google powiedział, że po setkach interakcji z niewydanym, zaawansowanym systemem sztucznej inteligencji o nazwie lambdaUważano, że program osiągnął pewien poziom świadomości.

W wywiadach i publicznych wypowiedziach wiele osób ze społeczności AI odrzuciło twierdzenia inżyniera, podczas gdy niektórzy wskazywali, że jego relacja podkreśla, w jaki sposób technologia może skłonić ludzi do przypisywania jej cech ludzkich. Można jednak argumentować, że przekonanie, że sztuczna inteligencja Google może być świadoma, podkreśla nasze obawy i oczekiwania dotyczące możliwości tej technologii.

LaMDA, co oznacza Language Model for Dialog Applications, jest jednym z kilku wielkoskalowych systemów AI, które zostały przeszkolone na dużych fragmentach tekstu z Internetu i mogą odpowiadać na pisemne monity. Ich zadaniem jest zasadniczo znajdowanie wzorców i przewidywanie, które słowo lub słowa powinny nadejść jako następne. Takie systemy stały się coraz lepiej odpowiadanie na pytania i pisanie w sposób, który może wydawać się przekonująco ludzki — i sam Google LaMDA przedstawiła w maju tego roku w poście na blogu Jako jeden potrafi „zaangażować się w nieskrępowany sposób wokół pozornie nieskończonej liczby tematów”. Ale wyniki mogą być również śmieszne, dziwne, denerwujące i podatne na rozproszenie.

Inżynier Blake Lemoine podobno powiedział Washington Post, że podzielił się z Google dowodami, że Lambda była świadoma, ale firma się z tym nie zgodziła. W oświadczeniu Google powiedział w poniedziałek, że jego zespół, w skład którego wchodzą etycy i technolodzy, „rozpatrzył obawy Blake’a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń”.

6 czerwca Lemoine opublikował na Medium, że Google umieścił go na płatnym urlopie administracyjnym „w związku z dochodzeniem w sprawie obaw etycznych dotyczących sztucznej inteligencji, które zgłaszałem w firmie” i że może zostać zwolniony „wkrótce”. (Wspomniał o doświadczeniu Margaret Mitchell, która była liderem zespołu ds. etycznej sztucznej inteligencji w Google do Google wyrzucił to na początku 2021 r. Po jej szczerze o Pod koniec 2020 roku Timnit Gebro, ówczesny współlider, odejdzie. Gebru została usunięta po wewnętrznych kłótniach, w tym jednej związanej z artykułem badawczym, w którym poproszono kierownictwo firmy AI o wycofanie się z rozważania oferty na konferencji lub usunięcie jej nazwiska.)

Rzecznik Google potwierdził, że Lemoine pozostaje na urlopie administracyjnym. Według The Washington Post otrzymał urlop za naruszenie polityki poufności firmy.

READ  Samsung Galaxy S24 Ultra z tytanową ramką nie będzie odchudzał

Lemoine nie był dostępny do komentowania w poniedziałek.

Ciągłe pojawianie się potężnych programów komputerowych szkolonych na głębokich, dużych zbiorach danych wzbudziło obawy dotyczące etyki, która rządzi rozwojem i wykorzystaniem tej technologii. A czasami rozwój jest postrzegany z perspektywy tego, co może nadejść, a nie tego, co jest obecnie możliwe.

Odpowiedzi osób ze społeczności AI na eksperyment Lemoine’a odbiły się echem w mediach społecznościowych w weekend i ogólnie doszły do ​​tego samego wniosku: AI Google nie jest nawet blisko świadomości. Abiba Birhani, Godny Zaufania Senior Fellow in Artificial Intelligence w Mozilli, ćwierkanie W niedzielę „Wkroczyliśmy w nową erę 'tej świadomej sieci neuronowej’ i tym razem obalenie jej zajmie dużo energii”.
Gary Marcus, założyciel i dyrektor generalny sprzedanej przez Ubera Geometry Intelligence i autor książek, w tym „Rebooting AI: Building Artificial Intelligence We Can Trust”, opisał pomysł LaMDA jako świadomy „Bzdury na szczudłach” w tweecie. napisałem szybko Post na blogu Zauważając, że wszystkie te systemy AI wykonują dopasowywanie wzorców, czerpiąc z ogromnych baz danych języka.

W poniedziałkowym wywiadzie dla CNN Business Marcus powiedział, że najlepszym sposobem myślenia o systemach takich jak LaMDA jest „globalna wersja” programu autouzupełniania, którego można użyć do przewidzenia następnego słowa w wiadomości tekstowej. Jeśli napiszesz „Jestem naprawdę głodny, więc chcę iść do”, może zasugerować „restauracja” jako następne słowo. Ale to jest prognoza oparta na statystykach.

„Nikt nie powinien myśleć, że autouzupełnianie, nawet na sterydach, jest świadome” – powiedział.

W rozmowie z Gebru, założycielem i CEO of Rozproszony Instytut Badawczy Sztucznej InteligencjiDAIR lub DAIR, Lemoine powiedział, że padł ofiarą wielu firm, które twierdzą, że świadoma sztuczna inteligencja lub sztuczna inteligencja ogólna — pomysł, który odnosi się do sztucznej inteligencji, która może wykonywać podobne do człowieka zadania i współdziałać z nami w znaczący sposób — nie jest daleko. .
Google zaoferował profesorowi 60 000 dolarów, ale odmówił.  Dlatego
Na przykład Ilya Sutskiver, współzałożyciel i główny naukowiec OpenAI, zauważa: ćwierkanie W lutym „Dzisiejsze duże sieci neuronowe mogą być trochę świadome”. A w zeszłym tygodniu wiceprezes Google Research i współpracownik Blaise Aguera y Arcas Napisany w artykule dla The Economist że kiedy zaczął używać LaMDA w zeszłym roku, „Coraz bardziej czułem się, jakbym mówił o czymś mądrym”. (Ten artykuł zawiera teraz notatkę redaktora, która zauważa, że ​​Lemoine został „przerwany po tym, jak w wywiadzie dla Washington Post stwierdził, że LaMDA, chatbot Google, stał się „świadomy”).

„To, co się dzieje, to taki wyścig, by użyć więcej danych, więcej komputerów, by powiedzieć, że stworzyłeś tę ogólną rzecz, którą wszyscy znacie, odpowiadasz na wszystkie twoje pytania lub cokolwiek, i to jest bęben, na którym grałeś” Gebru powiedział. . „Więc jak jesteś zaskoczony, gdy ta osoba posunie się do skrajności?”

READ  Meta pilotuje swojego automatycznego chatbota w WhatsApp, Instagramie i Messengerze w Indiach i Afryce

W swoim oświadczeniu Google zauważył, że LaMDA przeszedł 11 „wyróżniających się przeglądów zasad sztucznej inteligencji”, a także „rygorystycznych badań i testów” dotyczących jakości, bezpieczeństwa i możliwości uzyskania danych opartych na faktach. „Oczywiście, niektórzy w szerszej społeczności AI badają długoterminowy potencjał świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez wcielanie obecnych modeli rozmów, które nie są świadome” – powiedziała firma.

„Setki badaczy i inżynierów rozmawiało z lambdą i nie jesteśmy świadomi, że ktoś inny dostarcza tak obszernych twierdzeń lub ucieleśnia lambdę jak Blake” – powiedział Google.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *