Praktyczne podejście Apple do sztucznej inteligencji: bez przechwałek, tylko funkcje

  • W poniedziałek na WWDC Apple umiejętnie ogłosiło, ile pracy wykonuje nad najnowszymi technologiami sztucznej inteligencji i uczenia maszynowego.
  • W przeciwieństwie do większości firm technologicznych opartych na sztucznej inteligencji, Apple wykonuje najnowocześniejsze przetwarzanie na swoich urządzeniach, zamiast polegać na chmurze.
  • Zamiast mówić o modelach i technologiach AI, skupienie się na produkcie Apple oznacza, że ​​zwykle po prostu prezentuje on nowe funkcje, które są po cichu włączane przez sztuczną inteligencję za kulisami.

Apple Park jest widziany przed Worldwide Developers Conference (WWDC) w Cupertino w Kalifornii, 5 czerwca 2023 r.

Josh Adelson | AFP | Obrazy Getty’ego

W poniedziałek podczas dorocznej konferencji programistów Apple WWDC firma ujawniła, ile pracy wykonuje nad najnowszymi technologiami sztucznej inteligencji i uczenia maszynowego.

Gdy Microsoft, Google i startupy, takie jak OpenAI, przyjęły najnowocześniejsze technologie uczenia maszynowego, takie jak chatboty i generatywna sztuczna inteligencja, Apple wydawało się siedzieć na uboczu.

Ale w poniedziałek Apple ogłosiło kilka znaczących funkcji AI, w tym autokorektę iPhone’a opartą na oprogramowaniu do uczenia maszynowego przy użyciu modelu języka adaptera, tej samej technologii, która leży u podstaw ChatGPT. Apple powiedział, że będzie nawet uczyć się od tego, jak użytkownik wykonuje skrypty i typy, aby je ulepszyć.

Craig Federighi, dyrektor ds. oprogramowania w Apple, żartował na temat tendencji AutoCorrect do używania bezsensownego słowa „unikanie” zamiast zwykłego przekleństwa.

Największą poniedziałkową wiadomością był nowy, fajny zestaw słuchawkowy z rozszerzoną rzeczywistością, Vision Pro, ale mimo to Apple pokazało, jak to działa i jest zainteresowane rozwojem najnowszych technologii uczenia maszynowego i sztucznej inteligencji. ChatGPT OpenAI mógł dotrzeć do ponad 100 milionów użytkowników w ciągu dwóch miesięcy, kiedy został uruchomiony w zeszłym roku, ale teraz Apple wykorzystuje tę technologię, aby ulepszyć funkcję, z której codziennie korzysta miliard właścicieli iPhone’ów.

READ  Czy za 89 000 dolarów to Porsche 3.2 Carrera z 1989 roku to dobra okazja?

W przeciwieństwie do swoich konkurentów, którzy budują większe modele z farmami serwerów, superkomputerami i terabajtami danych, Apple chce modeli AI na swoich urządzeniach. Nowa funkcja autokorekty jest szczególnie imponująca, ponieważ działa na iPhonie, podczas gdy modele takie jak ChatGPT wymagają setek drogich procesorów graficznych pracujących w tandemie.

Sztuczna inteligencja na urządzeniu pozwala ominąć wiele problemów związanych z prywatnością danych, z którymi boryka się sztuczna inteligencja oparta na chmurze. Kiedy model można uruchomić na telefonie, Apple musi zebrać mniej danych, aby go uruchomić.

Jest to również ściśle związane z kontrolą Apple nad portfelem sprzętu, aż do chipów krzemowych. Apple co roku buduje nowe obwody AI i procesory graficzne w swoich chipach, a jego kontrola nad ogólną architekturą pozwala mu dostosowywać się do zmian i nowych technologii.

Apple nie lubi mówić o „sztucznej inteligencji” – woli akademickie sformułowanie „uczenie maszynowe” lub po prostu mówić o przewadze, jaką daje technologia.

Niektóre inne wiodące firmy AI mają liderów ze środowisk akademickich. To spowodowało, że skupiłeś się na zaprezentowaniu swojej pracy, wyjaśnieniu, w jaki sposób można ją ulepszyć w przyszłości, oraz udokumentowaniu jej, aby inni mogli ją studiować i na niej budować.

Apple jest firmą produktową i przez dziesięciolecia była bardzo tajemnicza. Zamiast mówić o konkretnym modelu sztucznej inteligencji, danych treningowych lub o tym, jak może się poprawić w przyszłości, Apple po prostu wspomina o tej funkcji i mówi, że za kulisami działa świetna technologia.

Jednym z takich przykładów w poniedziałek jest ulepszenie AirPods Pro, które automatycznie wyłącza redukcję szumów, gdy użytkownik jest zaangażowany w rozmowę. Apple nie określiło tego jako funkcji uczenia maszynowego, ale jest trudne do rozwiązania, a rozwiązanie opiera się na modelach sztucznej inteligencji.

W jednej z najodważniejszych funkcji ogłoszonych w poniedziałek, nowa funkcja Digital Persona firmy Apple skanuje twarz i ciało użytkownika w 3D, a następnie może wirtualnie odtworzyć ich wygląd podczas wideokonferencji z innymi osobami podczas noszenia zestawu słuchawkowego.Vision Pro.

READ  Nowa oprawa graficzna trybu „Overdrive” w grze Cyberpunk 2077 wygląda niesamowicie

Apple wspomniało również o kilku innych nowych funkcjach, które wykorzystywały umiejętności firmy w zakresie sieci neuronowych, takie jak możliwość wyboru pól do wypełnienia w pliku PDF.

Jedną z największych radości popołudnia w Cupertino była funkcja uczenia maszynowego, która umożliwia iPhone’owi rozpoznanie twojego zwierzaka — w porównaniu z innymi kotami lub psami — i umieszczenie wszystkich zdjęć zwierząt domowych użytkownika w folderze.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *