Czy chatbotom można ufać? co wiesz.

On gra

Niesamowita zdolność ChatGPT do odpowiadania na pytania ludzi w natychmiast generowanych, łatwych do zrozumienia odpowiedziach może zmienić zasady gry dla osób szukających porady medycznej, ale nowy artykuł w czasopiśmie medycznym mówi, że nie jest to takie proste. Podobnie ChatGPT.

Wiceprezes korporacyjny firmy Microsoft, Peter Lee, spędził ostatnie sześć miesięcy na eksperymentowaniu z najnowszą wersją ChatGPT, platformy sztucznej inteligencji zaprojektowanej w celu odpowiadania na pytania użytkowników konwersacyjnym tonem.

Podobnie jak inne tak zwane duże paradygmaty językowe, ChatGPT, stworzony przez startup OpenAI z San Francisco, jest szkolony na ogromnych ilościach danych dostępnych w Internecie, książkach i innych źródłach. Wykorzystuje algorytmy do generowania słów w sekwencji na podstawie częstotliwości, z jaką pojawiają się razem w Internecie. Wyszukiwarka Bing firmy Microsoft korzysta teraz z ChatGPT.

Lee, informatyk, który prowadzi badania Microsoftu na całym świecie, jest szczególnie zainteresowany medycznym i naukowym potencjałem ChatGPT.

poprzednio: ChatGPT jest gotowy do obalenia informacji medycznych. Na lepsze i gorsze.

On Artykuł został opublikowany w czwartek w New England Journal of Medicine O potencjalnych zastosowaniach ChatGPT do rejestrowania notatek medycznych, oferowania możliwości diagnostycznych, edukacji klinicystów i pacjentów oraz analizowania i podsumowywania danych. Powiedział, że szczególnie godna uwagi jest zdolność interfejsu do zapewniania reakcji empatycznych podobnych do ludzkich.

Zapytaliśmy Lee, który jest także współautorem nadchodzącej książki „The AI ​​​​Rvolution in Medicine: GPT-4 and Beyond”, o jego podekscytowanie i obawy związane z najnowszą wersją ChatGPT, obecnie ChatGPT-4, która została niedawno wydany. Zadaliśmy te same pytania również na ChatGPT, ale ponieważ jego dostępność jest wciąż ograniczona, odpowiedzi pochodzą z ChatGPT-3.

READ  Yelp, AutoZone, Lowe's i nie tylko

Pytanie: Czy ChatGPT dostarcza wiarygodnych informacji medycznych?

Dla mnie: Osobiście nie ufam modelkom na tym poziomie wyrafinowania w zakresie moich osobistych porad lub informacji dotyczących zdrowia i byłbym zaniepokojony, gdyby lekarze i pielęgniarki używali ich do podejmowania decyzji medycznych.

CzatGPT: ChatGPT to model języka, który jest szkolony na ogromnych ilościach danych tekstowych, w tym informacji medycznych. Należy jednak zauważyć, że ChatGPT nie jest lekarzem, a jego odpowiedzi nie powinny być traktowane jako porady medyczne.

Chociaż ChatGPT może dostarczać informacji na tematy medyczne, ważne jest, aby zweryfikować te informacje z wykwalifikowanym lekarzem przed podjęciem jakichkolwiek decyzji dotyczących Twojego zdrowia. Istnieje również ryzyko, że ChatGPT może dostarczać niedokładne lub nieaktualne informacje medyczne, które mogą być szkodliwe.

Pytanie: Jakie rodzaje błędów popełnia ChatGPT i dlaczego?

Dla mnie: Formularze GPT są generalnie bardzo kiepskie w wyszukiwaniu informacji. Jest to prawie zgodne z projektem, ponieważ modele GPT nie chcą ponownie kompilować swoich danych treningowych. Jeśli poprosisz go o konkretne źródło, na przykład odniesienie do artykułu, nie będzie w stanie ożywić dokładnego źródła, więc coś wymyśla, ma „halucynacje”.

CzatGPT: ChatGPT może popełniać błędy, takie jak udzielanie nieodpowiednich lub nieprawidłowych odpowiedzi, powtarzanie się lub udzielanie odpowiedzi, które nie pasują do kontekstu rozmowy.

Te błędy mogą wystąpić, ponieważ ChatGPT jest szkolony na ogromnych ilościach danych tekstowych, w tym niezweryfikowanych i potencjalnie stronniczych informacji, co może prowadzić do nieprawidłowych lub nieaktualnych informacji.

Ponadto na odpowiedzi ChatGPT może mieć wpływ jakość otrzymywanych danych wejściowych, co może skutkować odpowiedziami nieistotnymi lub nie na temat.

Pytanie: W czym ChatGPT-4 jest lepszy od ChatGPT-3?

Dla mnie: Osiągamy inny poziom inteligencji. Najważniejsze jest to, że masz ten model AI, który ma wiele możliwości poznawczych i masz interfejs czatu. W końcu interakcja z nim jest naprawdę naturalna.

READ  Akcje Snap spadły o ponad 17% w wyniku słabych oczekiwań

CzatGPT: Rozsądnie jest oczekiwać poprawy w takich obszarach, jak skala, dokładność, możliwości wielojęzyczne, rozumienie kontekstu i spójność.

Pytanie: ChatGPT czasami wygląda jak prawdziwa osoba. Czy ChatGPT ma „teorię umysłu”, czyli zdolność wyobrażania sobie stanów psychicznych innych ludzi?

Dla mnie: nie możesz tego zrobić. To jest maszyna. Ale możesz zapytać GPT-4, co pacjent (w danej sytuacji) określiłby jako myślenie i odczuwanie. Potrafi ocenić ten stan umysłu. … Przekłada się to na poczucie empatii dla pacjentów.

CzatGPT: Nie, ChatGPT nie ma teorii umysłu.

ChatGPT to model uczenia maszynowego, który wykorzystuje wzorce statystyczne i algorytmy do generowania odpowiedzi na dane wprowadzane w języku naturalnym. Nie ma świadomości, emocji ani przekonań, ani nie ma zdolności rozumienia ani wnioskowania o stanach psychicznych ludzkich użytkowników.

Chociaż ChatGPT jest w stanie generować reakcje, które mogą być empatyczne, angażujące i konwersacyjne, nie posiada teorii umysłu, która jest krytycznym aspektem ludzkiego poznania i interakcji społecznych.

Pytanie: Czy ChatGPT powinien być stosowany w medycynie?

Dla mnie: Społeczeństwo ma wybór. Możemy spróbować spowolnić lub wyłączyć tę technologię, ponieważ nie do końca rozumiemy ryzyko. Drugi argument jest bardziej fatalistyczny i mówi: „Jest nie do powstrzymania. Równie dobrze możemy tego spróbować”. Trzecią opcją, która moim zdaniem jest jedyną racjonalną, ale powinna być podjęta celowo, jest uważne przemyślenie, w jaki sposób możemy zintegrować tę technologię z naszym życiem, abyśmy mogli osiągnąć rzeczy, których ani ludzie, ani sztuczna inteligencja nie są w stanie zrobić. . Mam nadzieję, że społeczność medyczna i społeczeństwo wybiorą trzecią opcję.

CzatGPT: Nie należy polegać na ChatGPT wyłącznie w zakresie porad medycznych lub diagnozy. Chociaż ChatGPT może być w stanie dostarczyć informacji na tematy medyczne, nie jest to profesjonalista medyczny, a jego odpowiedzi należy traktować wyłącznie jako informacje.

Jednak ChatGPT może być użytecznym narzędziem do ogólnego zrozumienia pojęć i terminologii medycznej. W każdym przypadku konieczne jest zweryfikowanie wszelkich informacji dostarczonych przez ChatGPT z wykwalifikowanym lekarzem, aby upewnić się, że są one dokładne i mają zastosowanie do Twojej sytuacji.

Skontaktuj się z Karen Weintraub pod adresem kweintraub@usatoday.com.

Ochrona zdrowia i bezpieczeństwo pacjentów w USA TODAY jest częściowo możliwa dzięki dotacji z Fundacji Masimo na rzecz Etyki, Innowacji i Konkurencji w Opiece Zdrowotnej. Fundacja Masimo nie zapewnia wkładu redakcyjnego.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *