3 июня на конференции Computex 2024 в Тайбэе (Тайвань), на следующий день после презентации Nvidia (NVDA), Advanced Micro Devices (AMD) представила обновленную дорожную технологическую карту по всем ключевым направлениям, в том числе анонсировала новые ИИ-чипы.
Компания учла ошибки прошлого и подготовила прекрасную презентацию для инвесторов, ответив на большинство вопросов относительно дальнейших перспектив AMD. Как и Nvidia, компания ускорила темпы технологического развития и пообещала выпуск чипов на новой архитектуре по принципу «одно поколение в год». Анонсы AMD в краткосрочной перспективе могут существенно улучшить сентимент инвесторов в отношении ее акций, но при этом вряд ли кто-то ослабит оптимизм в адрес лидера рынка – Nvidia.
Компания анонсировала новые ИИ-ускорители AMD Instinct MI325X на старой архитектуре CDNA 3, первые поставки которых запланированы уже на четвертый квартал 2024 года. Данные чипы будут иметь 288 ГБ высокоскоростной HBM3E памяти – в два раза больше, чем у Nvidia H200. Пропускная способность памяти будет на 30% выше, чем в чипах конкурента, что обеспечит теоретическое преимущество в вычислительной мощности около 30%.
Первые ИИ-чипы AMD Instinct MI350 на новой архитектуре CDNA 4 ожидаются в 2025 году. Чипы будут созданы на базе 3-нм техпроцесса TSMC. Компания обещает до 288 ГБ HBM3E памяти и поддержку вычислений с точностью операций FP4/FP6. Новая архитектура CDNA 4 обеспечит 35-кратный прирост производительности в обработке запросов моделей ИИ (inference) по сравнению с CDNA 3. Уже сейчас глава компании Лиза Су делает смелые заявления и говорит о превосходстве AMD MI350 над Nvidia B200. Планируется, что MI350 будут иметь до 288 ГБ HBM3E памяти, что на 50% больше, чем у Nvidia B200, а теоретическая вычислительная мощность в ИИ-задачах будет на 20% выше. Следующее технологическое поколение чипов MI400 на архитектуре CDNA Next ожидается в 2026 году.
Заявленные AMD показатели новых ускорителей впечатляют, но, как обычно, остаются под вопросом условия и конкретные тесты, в которых были получены данные результаты. Аспект ПО для оптимизации вычислений все еще остается критически важным, и, хотя AMD активно развивает ROC, свой аналог платформы CUDA от Nvidia, последняя все же обеспечивает заметно более высокую эффективность использования теоретической мощности чипов.
Также AMD не забывает о важности сетевого оборудования и еще раз напомнила о своих стратегических инициативах в данной области. На прошлой неделе было объявлено о формировании альянса Ultra Accelerator Link (UALink) для развития и продвижения открытого отраслевого стандарта для обеспечения высокопроизводительного коммуникационного соединения для ИИ-ускорителей в центрах обработки данных. Среди основателей альянса упоминаются AMD, Broadcom, Cisco Systems, Google, HPE, Intel, MetA и Microsoft. Предполагается, что спецификация UALink 1.0 будет доступна в третьем квартале 2024 года и это станет ответом всего рынка на NVLink от Nvidia. Помимо этого, летом 2023-го AMD, Arista Networks, Broadcom, Cisco Systems, Eviden/Atos, HPE, Intel, Meta и Microsoft создали консорциум Ultra Ethernet (UEC), призванный составить конкуренцию технологии InfiniBand от NVIDIA (Mellanox).
Комментарии