(Bloomberg) — Firma Advanced Micro Devices Inc., działająca na dynamicznie rozwijającym się rynku zdominowanym przez Nvidia Corp., zaprezentowała nowe, tak zwane chipy akceleratora, które według niej będą w stanie uruchamiać programy sztucznej inteligencji szybciej niż produkty konkurencyjne.
Najczęściej czytane w serwisie Bloomberg
Podczas środowej imprezy w San Jose w Kalifornii firma przedstawiła długo oczekiwaną linię produktów o nazwie MI300. Dyrektor generalna Lisa Su przedstawiła również zaskakującą prognozę wielkości branży chipów AI, mówiąc, że w ciągu najbliższych czterech lat może ona wzrosnąć do ponad 400 miliardów dolarów. To ponad dwukrotnie więcej niż prognoza AMD z sierpnia, pokazująca, jak szybko mogą zmienić się oczekiwania dotyczące sprzętu AI.
Premiera jest jedną z najważniejszych w pięćdziesięcioletniej historii AMD i rozpoczyna rozgrywkę z firmą Nvidia na gorącym rynku akceleratorów AI. Takie chipy pomagają opracowywać modele sztucznej inteligencji poprzez bombardowanie ich danymi, a z tym zadaniem radzą sobie sprawniej niż tradycyjne procesory komputerowe.
AMD wykazuje coraz większą pewność, że linia MI300 może pozyskać niektóre z największych nazwisk w branży technologicznej, potencjalnie przenosząc miliardy wydatków na firmę. AMD twierdzi, że klientami korzystającymi z procesorów będzie Microsoft Corp. i Oracle Corp. i Meta Platforms Inc.
Akcje Nvidii spadły w środę na giełdzie w Nowym Jorku o 1,4% do 458,98 dolarów, podczas gdy akcje AMD spadły o niecałe 1% do 117,24 dolarów.
Rosnący popyt na chipy Nvidia ze strony operatorów centrów danych pomógł w tym roku zwiększyć zapasy spółki, podnosząc wartość rynkową firmy do ponad 1,1 biliona dolarów. Najważniejsze pytanie brzmi, jak długo utrzyma rynek akceleratorów dla siebie.
AMD widzi szansę: duże modele językowe — używane przez chatboty AI, takie jak ChatGPT OpenAI — wymagają dużo pamięci komputera i właśnie w tym miejscu producent chipów uważa, że ma to przewagę.
Nowy chip AMD ma ponad 150 miliardów tranzystorów i 2,4 razy więcej pamięci niż chip H100 firmy Nvidia, obecnego lidera rynku. Ma także przepustowość pamięci 1,6, co dodatkowo zwiększa wydajność, twierdzi AMD.
Su powiedział, że nowy chip jest odpowiednikiem chipa H100 firmy Nvidia pod względem zdolności do uczenia programów AI i znacznie lepszych w zakresie wnioskowania — procesu uruchamiania oprogramowania, gdy jest ono gotowe do użycia w prawdziwym świecie.
Ale Nvidia opracowuje własne chipy nowej generacji. H100 zastąpi H200 w pierwszej połowie przyszłego roku, zapewniając dostęp do nowego, szybkiego typu pamięci. To powinno pasować przynajmniej do części oferty AMD. Oczekuje się, że Nvidia zaprezentuje zupełnie nową architekturę procesorów jeszcze w tym roku.
Prognozy AMD, że procesory AI osiągną rynek o wartości 400 miliardów dolarów, podkreślają bezgraniczny optymizm w branży AI. Według IDC oznacza to kwotę 597 miliardów dolarów dla całej branży chipów w 2022 roku.
W sierpniu ubiegłego roku AMD przedstawiło skromniejszą prognozę na 150 miliardów dolarów w tym samym okresie. Zdobycie znacznej części tego rynku zajmie jednak firmie trochę czasu. AMD twierdzi, że jego przychody z akceleratorów przekroczą 2 miliardy dolarów w 2024 roku, a analitycy szacują, że całkowita sprzedaż producenta chipów wyniesie około 26,5 miliarda dolarów.
Chipy oparte są na typie półprzewodników zwanych jednostkami przetwarzania grafiki lub procesorami graficznymi, które są zwykle używane przez graczy wideo w celu zapewnienia bardziej realistycznych wrażeń. Ich zdolność do szybkiego wykonywania określonego rodzaju obliczeń poprzez wykonywanie wielu obliczeń jednocześnie uczyniła je idealnym wyborem do szkolenia programów sztucznej inteligencji.
(Aktualizacje zapasów w piątym akapicie.)
Najczęściej czytane w Bloomberg Businessweek
©2023 Bloomberg L.P