Qualcomm обяви в понеделник, че ще пусне нови чипове, оптимизирани за ускоряване на работата на изкуствения интелект. Това би трябвало да позиционира на пазара нов конкурент на Nvidia, която сега доминира на пазара на полупроводници, използвани за обучение и работа на големите езикови модели, предава CNBC.
Чиповете за изкуствен интелект са промяна за Qualcomm, която досега се фокусираше върху полупроводници за безжична свързаност и мобилни устройства, а не върху огромни центрове за данни.
Qualcomm заяви, че както AI200, който ще бъде пуснат в продажба през 2026 г., така и AI250, планиран за 2027 г., ще могат да се инсталират в системи, които запълва цял сървърен шкаф с течно охлаждане.
Qualcomm се конкурира с Nvidia и AMD, които предлагат своите графични процесори (GPU) в системи, които позволяват до 72 чипа да действат като един компютър. Лабораториите с изкуствен интелект се нуждаят от тази изчислителна мощност, за да работят с най-модерните модели.
Чиповете на Qualcomm за центрове за данни са базирани на чиповете за смартфони, наречени Hexagon neural processing units (NPU).
Първо искахме да се докажем в други области и след като изградихме силата си там, беше доста лесно за нас да се издигнем на нивото на центровете за данни“, каза Дурга Малади, генерален мениджър на Qualcomm в отдела за центрове за данни и периферни технологии, по време на разговор с репортери миналата седмица.
Близо 6.7 трилиона долара капиталови разходи ще бъдат направени за центрове за данни до 2030 г., като по-голямата част ще отидат за системи, базирани на чипове за изкуствен интелект, според оценка на McKinsey.
Индустрията е доминирана от Nvidia, чиито графични процесори държат над 90% от пазара, а продажбите им доведоха компанията до пазарна капитализация над 4.5 трилиона долара. Чиповете на Nvidia се използват за обучение на големите езикови модели, използвани в ChatGPT.
Но компании като OpenAI търсят алтернативи и по-рано този месец стартъпът обяви планове да закупи чипове от втория в класацията производител на графични процесори, AMD, и потенциално да придобие дял в компанията. Други компании, като Google, Amazon и Microsoft, също разработват AI ускорители за своите облачни услуги.
Qualcomm заяви, че чиповете му се фокусират върху работата на AI моделите, вместо върху обучението, което е начинът, по който лаборатории като OpenAI създават нови AI възможности, като обработват терабайти данни.
Производителят на чипове заяви, че неговите системи за мащабиране в стелажи в крайна сметка ще струват по-малко за експлоатация за клиенти като доставчици на облачни услуги и че един стелаж използва 160 киловата, което е сравнимо с високата консумация на енергия от някои стелажи с графични процесори на Nvidia.
Малади каза, че Qualcomm също ще продава своите AI чипове и други части отделно, особено за клиенти като хиперскалери, които предпочитат да проектират свои собствени стелажи. Той каза, че други компании за AI чипове, като Nvidia или AMD, биха могли дори да станат клиенти за някои от частите за центрове за данни на Qualcomm, като например централния процесор или CPU.
Това, което се опитахме да направим, е да се уверим, че нашите клиенти са в позиция или да вземат всичко, или да кажат: „Ще комбинирам и съчетая“, каза Малади.
Компанията отказа коментар, цената на чиповете, картите или шкафа, както и колко NPU могат да бъдат инсталирани в един шкаф. През май Qualcomm обяви партньорство със саудитската Humain за снабдяване на центрове за данни в региона с чипове за изкуствен интелект. Qualcomm ще бъде клиент на Qualcomm, ангажирайки се да внедри до толкова системи, колкото могат да използват 200 мегавата мощност.
Qualcomm заяви, че нейните AI чипове имат предимства пред други ускорители по отношение на консумацията на енергия, разходите за притежание и нов подход към начина, по който се обработва паметта. Компанията заяви, че нейните AI карти поддържат 768 гигабайта памет, което е повече от предложенията на Nvidia и AMD.
Източник: Economic.bg

