Sam Altman odpowiada Kunalowi Shahowi z CRED, tworząc jego film za pomocą nowego narzędzia

Sam Altman odpowiada na roszczenie Kunala Shaha dotyczącego sztucznej inteligencji dotyczącego wideo.

OpenAI, firma stojąca za ChatGPT, wprowadziła niedawno swój pierwszy model przetwarzania tekstu na wideo oparty na sztucznej inteligencji, Sora. Firma twierdzi, że może tworzyć filmy o długości do 60 sekund. O rozwoju poinformował także dyrektor generalny firmy Sam Altman, który zamieścił na X (dawniej Twitterze) krótkie klipy z twórczości Sory.

Altman poprosił swoich obserwujących na platformie, aby „przesłali w odpowiedzi napisy do filmów, które chcielibyście obejrzeć, a my zaczniemy je tworzyć!” Dodał, że nie powinni „uchylać się od szczegółów i trudności!” W odpowiedzi Kunal Shah, założyciel CRED, oświadczył, że chce stworzyć ciekawy film, wykorzystując jako elementy zwierzęta i ocean. Powiedział: „Wyścig rowerowy w oceanie z różnymi zwierzętami, podczas którego sportowcy jeżdżą na rowerach przez kamerę drona”.

Kilka godzin później szef OpenAI odpowiedział na post filmem. Na klipie widać wieloryby, pingwiny i żółwie jeżdżące po oceanie na kolorowych rowerach.

Od czasu udostępnienia klip uzyskał na platformie 4,5 miliona wyświetleń i 30 000 polubień.

„Interesująca i potężna sztuczna inteligencja” – powiedział jeden z użytkowników.

Inny powiedział: „Ten film jest właściwie najbardziej imponującym filmem, jaki kiedykolwiek powstał, z punktu widzenia semantyki i szczerości”.

Trzeci powiedział: „To potężne narzędzie już rozprzestrzeniło magię na cały świat”.

Jeden z użytkowników dodał: „Nie, żółw nie może dosięgnąć pedałów”.

„To niewiarygodne, jak szybko technologie sztucznej inteligencji postępują… i jest to przerażające, ponieważ nie jesteśmy przygotowani na zakłócenia, jakie wkrótce ze sobą przyniosą” – stwierdziła inna osoba.

Tymczasem według OpenAI Sora może tworzyć filmy o długości do 60 sekund, które zawierają bardzo szczegółowe sceny, złożone ruchy kamery i wiele postaci z realistycznymi emocjami. Zobacz konkurentów.
OpenAI stwierdziło na swojej stronie strona internetowa„Obecny model ma słabe strony. Może mieć trudności z dokładnym symulowaniem fizyki złożonej sceny i może nie rozumieć konkretnych przypadków przyczyny i skutku. Na przykład osoba może ugryźć ciasteczko, ale potem ciasteczko może Link nie jest śladem ugryzienia. Aby mieć pewność, że narzędzie AI nie zostanie wykorzystane do tworzenia deepfake’ów lub innych złośliwych treści, firma tworzy narzędzia pomagające wykrywać treści wprowadzające w błąd.

READ  Czego można się spodziewać (a czego nie) po Ubisoft w 2023 roku

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *