Как тензорните процесори на Google сериозно конкурират Nvidia

От 2018 г. Google започва да предлага TPU и в своята облачна платформа, давайки възможност клиентите да ползват същата технология, която ускори търсенето.

26 November 2025 | 13:50
Автор: Дина Бас
Редактор: Емил Соколов
Снимка: Bloomberg.com
Снимка: Bloomberg.com
  • Тензорните процесорни единици (TPU) на Google печелят големи клиенти и се утвърждават като реална алтернатива на GPU на Nvidia за обучение.
  • Ironwood (7-мо поколение) предлага по-висока производителност и по-ниска енергийна цена, с конфигурации до 9 216 чипа.
  • Въпреки надигащия се интерес към TPU, Nvidia остава ключова - гъвкавостта на GPU и мащабът на търсене налагат „смесен“ подход.

Клиентите отдавна настояват за повече конкуренция на пазара на чипове за изкуствен интелект, доминиран от Nvidia Corp. Оказва се, че една от най-сериозните алтернативи е била „пред очите ни“ през цялото време.

Google пусна своите тензорни процесорни единици (TPU) преди десетилетие, за да ускори търсачката и да повиши ефективността. По-късно те бяха адаптирани за машинно обучение в приложенията за AI на Google.

Днес компанията сключва големи сделки за TPU, което подсказва, че те могат да бъдат достоверна алтернатива на ускорителите на Nvidia за обучение и работа на съвременни големи езикови модели (LLM). Ускорителите на Nvidia се наричат графични процесорни единици (GPU).

Ето повече за TPU, как работят, какво обещават и къде са ограниченията им.

Каква е разликата между GPU и TPU

И двата типа чипове могат да обработват огромния брой изчисления при обучението на AI модели, но го постигат по различни начини. GPU на Nvidia първоначално са разработени за фотореалистична графика във видео игри, като обработват множество задачи паралелно чрез хиляди ядра. Тази архитектура им позволява да изпълняват AI задачи с скорости, които конкурентни технологии трудно достигат.

TPU са създадени специално за операции по матрично умножение - основното действие при обучението на невронни мрежи, които генерират отговори в чатботове като ChatGPT на OpenAI и Claude на Anthropic PBC. Голям дял от тази работа включва повторяеми изчисления, изпълнявани последователно, а TPU са разработени да ги изпълняват ефективно.

Те се смятат за по-малко адаптивни и по-специализирани от GPU на Nvidia, но и по-икономични откъм енергия при тези операции. GPU са по-гъвкави и програмируеми, но тази гъвкавост може да ги прави по-скъпи за експлоатация.

Как TPU се превърнаха в сериозен кандидат в AI

Google започва работа по първия си TPU през 2013 г. и го пуска две години по-късно. Първоначално ускорява търсачката и повишава ефективността. От 2018 г. Google започва да предлага TPU и в своята облачна платформа, давайки възможност клиентите да ползват същата технология, която ускори търсенето.

Чиповете са адаптирани и за вътрешната разработка на AI в Google. Докато компанията и звеното DeepMind създават водещи модели като Gemini, поуките от екипите по ИИ се връщат към дизайнерите на TPU, които от своя страна персонализират чиповете в полза на вътрешните екипи.

Последната версия - TPU Ironwood - беше представена през април. Предлага се като конфигурация от 256 чипа или много по-голяма версия с 9 216 чипа.

TPU могат да превъзхождат GPU при част от AI задачите, тъй като Google може да „извади много други части на чипа“, които не са насочени към AI, казва анализаторът от Seaport Джей Голдбърг, който рядко поддържа препоръка „продавай“ за Nvidia. Вече в седмо поколение, Google повиши производителността, увеличи мощността и намали енергопотреблението, което понижава цената на експлоатация.

Кой използва TPU и какви са перспективите за продажби

Сред текущите клиенти на TPU са Safe Superintelligence - стартъпът, основан миналата година от съоснователя на OpenAI Иля Сутскевер, както и Salesforce Inc., Midjourney и Anthropic.

По сделка, обявена през октомври, Anthropic получава достъп до над един гига­ват изчислителна мощ чрез до 1 милион TPU. Следващия месец The Information съобщи, че Meta Platforms Inc. води разговори да използва TPU на Google в своите центрове за данни през 2027 г. Тези развития подчертават как големи ИИ играчи възприемат TPU, докато бързат да добавят капацитет, за да посрещнат бурния ръст в търсенето.

Най-големите разработчици на AI харчат десетки милиарди долари за скъпите чипове на Nvidia и търсят начин да ограничат зависимостта и да смекчат ефекта от недостига - което сочи към значим пазарен потенциал за TPU.

Засега фирмите, които искат да използват TPU, трябва да наемат изчислителна мощ в облака на Google - но това може скоро да се промени. Сделката с Anthropic прави по-вероятно разширение към други облаци, смятат анализатори на Bloomberg Intelligence.

Никой, включително Google, не търси пълна замяна на GPU на Nvidia; темпът на развитие на AI в момента не позволява това. Google остава сред най-големите клиенти на Nvidia, тъй като трябва да поддържа гъвкавост за клиентите, казва Гаурава Гупта от Gartner.

Ако алгоритъмът или моделът на клиент се промени, GPU са по-подходящи за широк спектър от натоварвания. „Nvidia е с едно поколение пред индустрията“, заяви говорител на Nvidia. „Радваме се на успеха на Google - те постигнаха голям напредък в AI и ние продължаваме да доставяме на Google.“

Дори компаниите, които избират TPU, продължават да се ангажират силно и с чипове на Nvidia. Anthropic, например, обяви голяма сделка с Nvidia няколко седмици след споразумението за TPU на Google. Най-реалистичната перспектива за TPU на Google е да станат част от „кошница“ технологии, необходими за захранването на растежа на AI.