Последние публикации результатов тестов MLPerf (эти тесты показывают, насколько хорошо чип может применять предварительно обученную модель машинного обучения к новым данным) раскрыли в том числе и мощность будущего флагманского графического процессора H100 от Nvidia и сравнили его с конкурентами. H100 — первый чип компании, созданный на базе архитектуры Hopper со специально разработанным модулем Transformer Engine. Этот модуль ускоряет обучение трансформационных моделей и поэтому H100 может ускорить, к примеру будущие модели естественного языка, подобные GPT-3 от OpenAI или BERT от Google и его производные.
Как видно из графиков, H100 превзошел текущий флагман Nvidia, A100, в 1,5–2 раза по всем направлениям, а в BERT преимущество оказалось еще более выраженным до 4,5 раз при снижении потребляемой мощности чипом до 50%.
Данный график интересен еще тем, что мы также можем понять, насколько близко подобрались к "зеленым" конкуренты.
Китайский чип BIREN 104 показывает достаточно приличный результат, а учитывая, что это по факту "половинка от полной версии", по некоторым параметрам он может догнать даже будущее решение Nvidia.
Новичками рынка "серверных GPU вычислений" стали также Qualcomm со своим суперэнергоэффективным Cloud A100, а также корейский SAPEON и будущее решение от Intel. С учетом того, что в тесте присутствуют также не самые производительные решения этих компаний, рынок серверных GPU общих вычислений ждет интересное конкурентное развитие, на который могут также сильно повлиять и санкционные войны.