Demo nauczyciela iPada AI wskazuje na niesamowity nowy świat dla uczniów

Jeśli jeszcze tego nie zrobiłeś świadek Gorąco polecam właśnie to podczas wczorajszego wydarzenia OpenAI. Nagłówek wiadomości głosił, że najnowszy GPT-4o bezproblemowo współpracuje z dowolną kombinacją tekstu, dźwięku i wideo.

Obejmuje to możliwość „pokazania” aplikacji GPT-4o nagrania ekranu, które przechwytujesz, w innej aplikacji — i tę możliwość firma pokazała w całkiem szalonej wersji demonstracyjnej guru AI na iPadzie…

GPT-4o

OpenAI stwierdziło, że „o” oznacza „omni”.

GPT-4o („o” od „omni”) to krok w kierunku bardziej naturalnej interakcji człowiek-komputer — akceptuje jako dane wejściowe dowolną kombinację tekstu, dźwięku i obrazu oraz generuje dowolną kombinację tekstu, dźwięku i obrazu jako dane wyjściowe.

Może reagować na polecenia głosowe w ciągu zaledwie 232 milisekund, średnio 320 milisekund, co jest podobne do czasu reakcji człowieka (otwiera się w nowym oknie) podczas rozmowy. […] GPT-4o jest szczególnie lepszy w rozumieniu obrazu i dźwięku niż obecne modele.

Nawet aspekt audio jest tutaj wielką sprawą. Wcześniej ChatGPT akceptował wprowadzanie głosowe, ale przed rozpoczęciem pracy z nim konwertował je na tekst. Natomiast GPT-4o faktycznie rozumie mowę, więc całkowicie pomija etap konwersji.

Jak zauważyliśmy wczoraj, bezpłatni użytkownicy otrzymują również wiele funkcji, które wcześniej były ograniczone do płatnych subskrybentów.

Demo nauczyciela AI na iPadzie

Jedną z możliwości zademonstrowanych przez OpenAI jest zdolność GPT-4o do sprawdzania, co robisz na ekranie iPada (w trybie podzielonego ekranu).

Przykład pokazuje, jak sztuczna inteligencja uczy ucznia, który ma problem z matematyką. Słychać, że GPT-4o początkowo zrozumiał problem i chciał go natychmiast rozwiązać. Ale nowy formularz może zostać przerwany, w takim przypadku zostanie poproszony o pomoc uczniowi w jego samodzielnym rozwiązaniu.

Kolejna umiejętność, która się tu wyłania, to to, że model twierdzi, że wykrywa emocje w mowie, a także potrafi je wyrażać. Jak na mój gust, w wersji beta było to nieco przesadzone i znajduje to odzwierciedlenie tutaj – sztuczna inteligencja jest być może nieco protekcjonalna. Ale to wszystko jest regulowane.

READ  Meta przedstawia asystenta sztucznej inteligencji i okulary do transmisji strumieniowej za pośrednictwem Facebooka

W efekcie każdy uczeń na świecie może mieć prywatnego nauczyciela posiadającego takie umiejętności.

Ile z tego Apple zintegruje?

Wiemy, że sztuczna inteligencja jest głównym celem iOS 18 i że finalizowana jest umowa dotycząca wprowadzenia funkcji OpenAI na urządzenia Apple. Chociaż w tamtym czasie opisywano, że dotyczy ChatGPT, obecnie wydaje się bardzo prawdopodobne, że faktyczna umowa dotyczy dostępu do GPT-4o.

Wiemy jednak również, że Apple pracuje nad własnymi modelami sztucznej inteligencji, mając własne centra danych obsługujące własne chipy. Na przykład Apple go rozwijało król Sposób na umożliwienie Siri zrozumienia ekranów aplikacji.

Nie wiemy więc dokładnie, jakie możliwości GPT-4o firma wprowadzi do swoich urządzeń, ale funkcja ta wydaje się tak idealna dla Apple, że muszę wierzyć, że zostanie uwzględniona. To naprawdę wykorzystanie technologii, aby wzmocnić pozycję ludzi.

zdjęcie: OpenAI. Benjamin Mayo przyczynił się do powstania tego raportu.

FTC: Używamy automatycznych linków partnerskich, aby zarabiać. więcej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *