рейтинг блогов

И опять о мегачипах

топ 100 блогов 1500py47023.08.2021 Компания Tesla давеча про роботов антропоморфных Tesla Bot презентацию делала, а нынче представила свой новый специализированный процессор Tesla D1 для машинного обучения ИИ. 50 млрд транзисторов, 400 Вт мощности и возможность объединения их в мультичип сборку по 25 штук. Процессор производится по технологическим нормам 7 нм. Площадь при этом составляет 645 кв. мм, что относительно много по нынешним временам, хотя и меньше чем например у Nvidia, и много-много-много меньше чем у Cerebras у которой их Wafer Scale Engine занимает всю 300-мм пластину!


И опять о мегачипах


Tesla D1 оснащён 354 обучающими узлами на базе 64-разрядного суперскалярного процессора с четырьмя ядрами. Решение поддерживает инструкции FP32, BFP16, CFP8, INT32, INT16 и INT8. Производительность в вычислениях с одинарной точностью (FP32) составляет 22,6 TFLOPS, а в случае режима BF16/CFP8 речь идёт о 362 TFLOPS. Такие результаты достигаются при TDP 400 Вт.

И опять о мегачипах


Так как для машинного обучения важна масштабируемость, Tesla разработала специализированный интерфейс с пропускной способностью 10 ТБ/с. Кольцо ввода-вывода включает 576 полос, каждая из которых имеет пропускную способность в 112 ГБит/с. В итоге Tesla может собирать чипы D1 в мультичип сборки по 25 процессоров Tesla D1 в каждой. И такие сборки также можно соединять между собой. Tesla продемонстрировала такую мультичип сборку с процессорами, работающими на частоте 2 ГГц. Производительность такого решения составила 9 PFLOPS (BF16/CFP8).

И опять о мегачипах


Также у Tesla есть планы по созданию суперкомпьютера на основе процессоров D1. Система ExaPOD будет собрана из 120 плиток-мультичипсборок с 3000 процессоров на борту. Жрать этот ExaPOD будет по нынешним зелёным временам умерено, всего 1,8 МВт без системы охлаждения :) Итоговая производительность достигнет 1,1 ExaFLOPS (FP16/CFP8). После постройки система будет самым мощным суперкомпьютером для обучения ИИ. В сравнении с нынешними суперкомпьютерами Tesla на основе GPU Nvidia такая система предложит в четыре раза большую производительность и в 1,3 раза большую производительность на ватт при пятикратном снижении занимаемой площади.

И опять о мегачипах


Разумеется по сравнению с мегачипами от Cerebras эти самые Tesla D1 по гамбургскому счёту сосут, но они могут оказаться и намного успешнее. Cerebras Wafer Scale Engine Generation 2. Второе поколение WSE содержит 850000 ядер AI, что более чем в два раза превышает их в WSE-1. Число транзисторов увеличивается с 1,2 трлн. до 2,6 трлн. Для сравнения, NVIDIA GA100 GPU содержит 54 млрд. транзисторов на площади 826 мм². Второе поколение WSE производится по 7-нм техпроцессу на заводах TSMC, вместо 16-нм в WSE-1. И по-прежнему чип занимает всю 300-мм подложку.

И опять о мегачипах


Весьма вероятно, что цена и выход годных D1 будет лучше чем у WSE-1 и WSE-2.

И опять о мегачипах


И глядя на всё это хочется задаться вопросом, а когда все эти мегачипы будут смотрятся также архаично как эта старая советская техника внизу?

И опять о мегачипах


И опять о мегачипах


И опять о мегачипах


ЗЫ Добавить нужно будет пост про мультичип сборки от НИИЦЭВТ как-нибудь.

Оставить комментарий

Предыдущие записи блогера :
Архив записей в блогах:
Взято у lyks ...
На наш офис обрушился жестокий форс-мажор... 28-летняя бухгалтерша, которую взяли на работу полгода назад, поначалу руководству очень понравилась. Никто не мог предположить, что за столь короткий срок стройная, звонкая, ничем не предвещающая беду девушка станет выглядеть примерно вот ...
Новый портрет Ахиллеса-Андреаса, сына Павлоса и Мари Шанталь Греческих. 24 года. Увлечен искусством актерского мастерства. Снимается в сериалах и короткометражных фильмах. Еще недавно, на последнем Октоберфесте, был таким И сегодня ...
Всё более очевидно, что в споре Плеханова с Лениным, Плеханов был прав: социализм в России был преждеверемен.  Средства производства не достигли достаточного уровня для перехода к коммунистической фазе. Да и переход этот - сегодня мне это очевидно - будет происходить совергенно ...
http://cybervantuz.livejournal.com/882623.htmlСоставитель облегчил задачу и сообщил, что на третьей ...
  • JantieWillie : @M_Steinbuch @elonmusk @I_Steinbuch @Tesla Awesome! You are one of the first, safe travel and enjoy!

  • Noefane : @Raph_Bloch Tesla n'est pas le plus gros constructeur auto !

  • Alireza71725000 : RT @dadkhah_pedram: #dogearmy plz join us to trending #acceptdogecoin for #tesla

  • CaptainPotter0 : @TeslaAIBot @PrathSo19 @Tesla No I mean are u real now? Are u a computer???

  • withinsec : so why do u as a woman weight more than the tesla bot https://t.co/q5O6a1J58B

  • J_M_u_r_p_h_y : RT @lexfridman: Tesla AI Day showed incredible engineering at all levels: AI hardware for inference & training, neural net design innovatio…

  • TeslaSydney : What street name will Tesla take over next? Henry Ford Drive or General Motors Boulevarde? https://t.co/i67gAgLIKZ

  • ShellsBells1861 : RT @passthebeano: "Three Tesla workers came to the scene after the accident & wanted to tow the car back to the factory for inspection, but…

  • RunTwatter : @ChadCha66264147 @bucees My Tesla Model Y does 0 to 60 in 3.5 secs. What do you drive? Can you even break 5 secs?

  • KeithDukes0110 : @AreseneCOD @Tesla BTC is the king for most of them.

  • prxscxllv : RT @ashytittays: @prxscxllv We proud of you now buy the Tesla

  • KX84820981 : @Tsutsaev_Ruslan @TaylorOgan I do not doubt that companies similar to autoX will come to a solution first by using… https://t.co/CHFW4D0qvR

  • AreseneCOD : @Tesla https://t.co/39UBf5sMWS

  • carsonight : @Tele92275175 @bridgemccarthy_ @BYDCompany @Tesla @BloombergNEF @snowbullcapital Exponentially? With a 6 year, 58%… https://t.co/c4SxrtZo0M