„60 minut” złożyło szokująco fałszywe twierdzenie na temat chatbota Google AI

Odkąd OpenAI wypuściło ChatGPT na świat, widzieliśmy, jak zabiera ludzi, którym byś nie uwierzył. Niektórzy twierdzą, że chatboty mają przebudzoną agendę. Amerykański senator Chris Murphy napisał na Twitterze, że ChatGPT „nauczył” się zaawansowanej chemii. Nawet doświadczeni dziennikarze techniczni pisali historie o tym, jak to działa Chatbot zakochał się w nich. Wygląda na to, że świat reaguje na sztuczną inteligencję w taki sam sposób, w jaki prawdopodobnie zareagowali jaskiniowcy, kiedy po raz pierwszy zobaczyli ogień: z całkowitym zamieszaniem i niespójnym bełkotem.

Jeden z najnowszych przykładów pochodzi z 60 minut, który rzucił swój głos na ring w nowym odcinku poświęconym innowacjom w sztucznej inteligencji, który został wyemitowany w niedzielę CBS. Odcinek zawierał wywiady z Sundarem Pichai, dyrektorem generalnym Google i zawierał wątpliwe treści Roszczenia dotyczące jednego z dużych modeli językowych firmy (LLM).

Segment dotyczy wyłaniającego się zachowania, które opisuje nieoczekiwany efekt uboczny systemu sztucznej inteligencji, który niekoniecznie był zamierzony przez twórców modelu. Widzieliśmy już pojawiające się zachowania w innych niedawnych projektach AI. Na przykład naukowcy niedawno wykorzystali ChatGPT do stworzenia cyfrowych postaci z celami i pochodzeniem w badaniu opublikowanym online w zeszłym tygodniu. Zauważają, że system wykonuje różne pojawiające się zachowania, takie jak dzielenie się nowymi informacjami między postaciami, a nawet tworzenie relacji między sobą – coś, czego autorzy początkowo nie planowali dla systemu.

Pojawiające się zachowania to z pewnością temat warty omówienia w programie informacyjnym. gdzie jest 60 minut Film zmienia się jednak, gdy dowiadujemy się o twierdzeniach, że chatbot Google był w stanie nauczyć się języka, którego wcześniej nie znał, po tym, jak został poproszony w tym języku. „Na przykład jeden program Google AI dostosował się sam po tym, jak mu powiedziano, aby to zrobił w języku Bangladeszu, którego nie był szkolony” – powiedział w filmie reporter CBS News, Scott Pelley.

READ  W marcu Xbox Game Pass traci trzy kolejne gry

Okazało się, że była kompletną BS. Robot nie tylko nie mógł nauczyć się języka obcego, którego „nigdy się nie nauczył”, ale także nigdy nie nauczył się nowej umiejętności. Cały klip skłonił badaczy i ekspertów AI do skrytykowania wprowadzającego w błąd kadru programu informacyjnego na Twitterze.

„Z pewnością mam nadzieję, że niektórzy dziennikarze przejrzą cały segment @60Minute w Google Bard jako studium przypadku, jak * nie * opisywać AI”, powiedziała Melanie Mitchell, badaczka AI i profesor w Instytucie Santa Fe, napisał w tweecie.

„Przestań myśleć magicznie o technologii! #AI nie jest w stanie odpowiedzieć w języku bengalskim, chyba że dane szkoleniowe zostały skażone bengalskim lub przeszkolone w języku, który pokrywa się z bengalskim, takim jak asamski, orija lub hindi” Alex O. pracownik naukowy Massachusetts Institute of Technology, Dodano w innym poście.

To jest nic nie warte 60 minut Klip nie mówi dokładnie, jakiej sztucznej inteligencji użyli. Jednak rzecznik CBS powiedział The Daily Beast, że segment nie był dyskusją na temat Barda, ale oddzielnym programem sztucznej inteligencji o nazwie PaLM – którego podstawowa technologia została później zintegrowana z Bardem.

Powodem, dla którego ta część była tak frustrująca dla tych ekspertów, jest to, że ignoruje i gra z rzeczywistością tego, co faktycznie może zrobić generatywna sztuczna inteligencja. Nie może „nauczyć się” języka, jeśli nie ma do niego dostępu. To byłoby jak próba nauczenia się mandaryńskiego, ale usłyszałeś to dopiero po tym, jak ktoś kiedyś zapytał cię o mandaryński.

W końcu język jest niewiarygodnie złożony — z niuansami i regułami, które wymagają niewiarygodnego stopnia kontekstu do zrozumienia i komunikacji. Nawet najbardziej zaawansowany LLM nie jest w stanie obsłużyć i nauczyć się tego wszystkiego za pomocą kilku monitów.

PaLM jest już przeszkolony z bengalskim, dominującym językiem Bangladeszu. Margaret Mitchell (bez krewnych), badaczka w Startup Lab w AT HuggingFace, a wcześniej w Google, wyjaśniła to w Temat tweeta Podaj argument dlaczego 60 minut było źle.

READ  Apple twierdzi, że iOS 18 Beta 2 zostanie wydany w poniedziałek z dwiema nowymi funkcjami

Mitchell zauważył, że podczas demonstracji w 2022 roku Google pokazał, że PaLM może komunikować się i odpowiadać na monity w języku bengalskim. the Papier za PaLM W arkuszu danych ujawniono, że model został faktycznie przeszkolony w języku z około 194 milionami symboli w alfabecie bengalskim.

Więc magicznie nie nauczył się niczego za pomocą jednego monitu. Znał już język.

Nie jest jasne, dlaczego Pichai, dyrektor generalny Google, usiadł do wywiadu i pozwolił, aby te zarzuty były kontynuowane bez sprzeciwu. (Google nie odpowiedziało na prośby o komentarz.) Od czasu wyemitowania odcinka milczy, mimo że eksperci zwracają uwagę na wprowadzające w błąd i fałszywe twierdzenia zawarte w klipie. Na Twitterze Margaret Mitchell Wniosek Powodem tego może być połączenie liderów Google, którzy nie wiedzą, jak działają ich produkty, a także to, że pozwala to na rozpowszechnianie kiepskich wiadomości w celu zaradzenia obecnemu szumowi wokół generatywnej sztucznej inteligencji.

„Podejrzewam [Google executives] Dosłownie nie rozumiem, jak to działa, Mitchell ćwierkanie. „To, co napisałem powyżej, jest dla nich najprawdopodobniej nowością. I są zmotywowani, by tego nie rozumieć (PRZYJRZYJ W OCZY DO TEGO KARTY DANYCH!!).”

Druga połowa filmu może być również postrzegana jako problematyczna, ponieważ Pichai i Billy omawiają opowiadanie stworzone przez Barda, które „brzmiało bardzo ludzko”, pozostawiając obu mężczyzn nieco wstrząśniętych.

Prawda jest taka, że ​​te produkty nie są magiczne. Nie mogą być „ludźmi”, ponieważ nie są ludźmi. Są to predyktory tekstu, takie jak te w telefonie, wyszkolone w znajdowaniu najbardziej prawdopodobnych słów i wyrażeń po serii słów we frazach. Powiedzenie, że istnieją, może dać im poziom mocy, który może być niewiarygodnie niebezpieczny.

W końcu użytkownicy mogą używać tych generatywnych systemów sztucznej inteligencji do robienia takich rzeczy, jak rozpowszechnianie dezinformacji. Widzieliśmy już, jak manipulują podobizną ludzi, a nawet ich głosami.

READ  AirPods i AirPods Max firmy Apple mogą w przyszłym roku podążać za słuchawkami Pro do USB-C

Nawet chatbot sam w sobie może wyrządzić szkody, jeśli w rezultacie uzyska tendencyjne wyniki – coś, co już widzieliśmy w przypadku ChatGPT i Bard. Znając skłonność tych chatbotów do halucynacji i fabrykowania wyników, mogą one być w stanie rozpowszechniać dezinformację niczego niepodejrzewającym użytkownikom.

Potwierdzają to również badania. Ostatnie badania Opublikowany w Raporty naukowe Odkrył, że na ludzkie odpowiedzi na pytania etyczne mogą łatwo wpływać argumenty wysuwane przez ChatGPT – a nawet, że użytkownicy bardzo nie docenili, jak bardzo boty mają na nich wpływ.

Wprowadzające w błąd twierdzenia dot 60 minut Tak naprawdę jest to tylko objaw większego zapotrzebowania na umiejętności cyfrowe w czasie, gdy potrzebujemy ich najbardziej. Wielu ekspertów AI twierdzi, że teraz, bardziej niż kiedykolwiek, nadszedł czas, kiedy ludzie muszą być świadomi tego, co AI może, a czego nie. Te podstawowe fakty dotyczące robotyki muszą być również skutecznie przekazywane szerszej publiczności.

Oznacza to, że ludzie z największymi platformami i najgłośniejszymi głosami (tj. media, politycy i dyrektorzy generalni Big Tech) ponoszą największą odpowiedzialność za zapewnienie bezpieczniejszej i lepiej wykształconej przyszłości sztucznej inteligencji. Jeśli tego nie zrobimy, możemy skończyć jak wspomniani jaskiniowcy, bawiąc się magią ognia – i poparzyć się przy tym.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *