Wszystko zostało ujawnione, łącznie z Gemini AI, Androidem 15 i nie tylko

Pod koniec I/O, corocznej konferencji programistów Google w Shoreline Amphitheatre w Mountain View, dyrektor generalny Google Sundar Pichai ujawnił, że firma powiedziała „AI” 121 razy. Takie było w zasadzie sedno dwugodzinnego przemówienia Google – wprowadzenie sztucznej inteligencji do wszystkich aplikacji i usług Google, z których korzystają ponad dwa miliardy ludzi na całym świecie. Oto wszystkie najważniejsze aktualizacje ważnego wydarzenia Google oraz kilka dodatkowych ogłoszeń, które pojawiły się po przemówieniu przewodnim.

Bliźnięta Pro

Google

Google ogłosiło zupełnie nowy model sztucznej inteligencji o nazwie Gemini 1.5 Flash, który według niego jest zoptymalizowany pod kątem szybkości i wydajności. Flash plasuje się pomiędzy Gemini 1.5 Pro i Gemini 1.5 Nano, najmniejszym modelem firmy, który działa natywnie na urządzeniu. Google stwierdziło, że stworzyło Flasha, ponieważ programiści chcieli lżejszego i tańszego modelu niż Gemini Pro do tworzenia aplikacji i usług opartych na sztucznej inteligencji, przy jednoczesnym zachowaniu takich elementów, jak okno kontekstowe o długości miliona tokenów, które odróżnia Gemini Pro od konkurencyjnych modeli. Jeszcze w tym roku Google podwoi okno kontekstowe Gemini do 2 milionów tokenów, co oznacza, że ​​będzie w stanie przetworzyć na jednym oddechu 2 godziny wideo, 22 godziny audio i ponad 60 000 linii kodu lub ponad 1,4 miliona słów . czas. .

Projekt AstryProjekt Astry

Google

Google zaprezentował Project Astra, wczesną wersję globalnego asystenta opartego na sztucznej inteligencji, który Demis Hassabis, dyrektor generalny Google DeepMind, stwierdził, że jest to opracowana przez Google wersja agenta AI, „która może być przydatna w życiu codziennym”.

W filmie, który według Google został nakręcony w jednym ujęciu, użytkownik Astry porusza się po biurze Google w Londynie, trzymając telefon i kierując aparat na różne rzeczy – głośnik, jakiś kod na tablicy, za oknem – i prowadzi naturalną rozmowę z aplikacją o tym, jak to wygląda. W jednym z najbardziej imponujących momentów filmu prawidłowo informuje użytkownika, gdzie wcześniej zostawiła okulary, bez konieczności podnoszenia przez niego okularów.

READ  Plotki o Galaxy S23 Ultra „potwierdzone w 100%” podkreślają, czym będzie aparat 200 MP

Film kończy się niespodzianką – gdy użytkownik odnajdzie brakujące okulary i je założy, dowiadujemy się, że ma wbudowany system kamer i potrafi za pomocą Project Astra bezproblemowo prowadzić rozmowę z użytkownikiem, co może sugerować, że Google może pracować nad konkurentem inteligentnych okularów Ray Ban firmy Meta.

Zapytaj zdjęciaZapytaj zdjęcia

Google

Zdjęcia Google były już sprytne, jeśli chodzi o wyszukiwanie konkretnych zdjęć lub filmów, ale dzięki sztucznej inteligencji Google przenosi wszystko na wyższy poziom. Jeśli jesteś subskrybentem Google One w USA, będziesz mógł zadawać Zdjęciom Google złożone pytanie, np. „Pokaż mi najlepsze zdjęcie z każdego parku narodowego, który odwiedziłeś”, gdy ta funkcja zostanie wdrożona w ciągu najbliższych kilku lat miesiące. Zdjęcia Google wykorzystają Twoje dane GPS oraz własną ocenę tego, co jest „najlepsze”, aby zapewnić Ci opcje. Możesz także poprosić Zdjęcia Google o wygenerowanie podpisów do publikowania zdjęć w mediach społecznościowych.

PoglądPogląd

Google

Nowe silniki Google do tworzenia multimediów oparte na sztucznej inteligencji nazywają się Veo i Imagine 3. Veo to odpowiedź Google na Sora OpenAI. Google twierdzi, że może tworzyć „wysokiej jakości” filmy w rozdzielczości 1080p, które mogą trwać „ponad minutę” i rozumieją koncepcje kinowe, takie jak poklatkowe.

Tymczasem Imagen 3 to generator zamiany tekstu na obraz, który według Google radzi sobie z tekstem lepiej niż jego poprzednik, Imagen 2. W rezultacie powstał najwyższej jakości model firmy zajmujący się zamianą tekstu na obraz, charakteryzujący się „niesamowitym poziomem szczegółowości” i „realistycznym , realistyczne obrazy.” ” i mniej artefaktów — co zasadniczo porównuje go z DALLE-3 OpenAI.

wyszukiwarka Googlewyszukiwarka Google

Google

Google wprowadza duże zmiany w podstawowym działaniu wyszukiwania. Większość ogłoszonych dzisiaj aktualizacji umożliwia zadawanie naprawdę skomplikowanych pytań („Znajdź najlepsze studia jogi lub pilates w Bostonie i przeglądaj szczegółowe informacje o ofertach oraz godzinach spacerów w Beacon Hill”) oraz korzystaj z wyszukiwania w celu planowania posiłków i wakacji. Będzie dostępna tylko wtedy, gdy subskrybujesz Search Labs, platformę firmy, która umożliwia wypróbowanie funkcji w wersji beta.

READ  Naukowcy z Harvardu opracowali „inteligentny” płyn.

Ale nowa, wielka funkcja, którą Google nazywa Przeglądami AI i którą firma testuje od roku, w końcu jest udostępniana milionom ludzi w Stanach Zjednoczonych. Wyszukiwarka Google będzie teraz domyślnie wyświetlać odpowiedzi wygenerowane przez sztuczną inteligencję na górze wyników wyszukiwania, a firma twierdzi, że do końca roku udostępni tę funkcję ponad miliardowi użytkowników na całym świecie.

Bliźnięta na AndroidzieBliźnięta na Androidzie

Google

Google integruje Gemini bezpośrednio z Androidem. Kiedy Android 15 zostanie wydany jeszcze w tym roku, Gemini będzie wiedział, jaką aplikację, zdjęcie lub film odtwarzasz, i będzie mógł przeciągnąć je jako nakładkę i zadać pytania kontekstowe. Gdzie to pozostawia Asystenta Google, który już to robi? Kogo znasz! Google w ogóle nie wspomniał o tym podczas dzisiejszego przemówienia.

Google nie jest jeszcze całkiem gotowy na wdrożenie najnowszej wersji systemu operacyjnego dla smartwatchów, ale obiecuje znaczną poprawę żywotności baterii, jeśli taka się pojawi. Firma podała, że ​​Wear OS 5 zużyje o 20 procent mniej energii niż Wear OS 4, jeśli użytkownik przebiegnie maraton. Wear OS 4 rzeczywiście poprawił żywotność baterii obsługujących go smartwatchów, ale nadal mógłby znacznie lepiej zarządzać energią urządzenia. Google udostępniło także programistom nowy przewodnik dotyczący oszczędzania energii i baterii, dzięki czemu mogą tworzyć wydajniejsze aplikacje.

Wersja zapoznawcza Androida 15 dla programistów mogła być dostępna od miesięcy, ale wciąż pojawiają się nowe funkcje. Blokada wykrywania kradzieży to jedna z nowych funkcji Androida 15, która będzie wykorzystywać sztuczną inteligencję (tutaj jeszcze raz) do przewidywania kradzieży telefonu i odpowiedniego blokowania rzeczy. Google twierdzi, że jego algorytmy potrafią wykryć ruchy powiązane z kradzieżą, na przykład związane z chwytaniem telefonu i odejściem, jazdą na rowerze lub odjeżdżaniem. Jeśli telefon z Androidem 15 wybierze jedną z tych sytuacji, jego ekran szybko się zablokuje, co utrudni porywaczowi telefonu dostęp do Twoich danych.

READ  Komputer Apple Macintosh został wypuszczony po raz pierwszy 40 lat temu, a ci ludzie nadal korzystają ze starych komputerów

Pojawiło się także wiele innych aktualizacji. Google twierdzi, że doda cyfrowe znaki wodne do filmów i tekstów generowanych przez sztuczną inteligencję, udostępni Gemini na panelu bocznym w Gmailu i Dokumentach, będzie wspierać wirtualnego współpracownika opartego na sztucznej inteligencji w Workspace, podsłuchiwać rozmowy telefoniczne i wykrywać, czy rzeczywiście zostałeś oszukany czas i wiele więcej.

Śledź na żywo wszystkie aktualności z Google I/O 2024 Tutaj!

Zaktualizowano 15 maja o 14:45 ET: Ta historia została zaktualizowana po publikacji i zawierała szczegółowe informacje na temat nowych zapowiedzi Androida 15 i WearOS 5 opublikowanych po przemówieniu I/O 2024.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *