Добавь сайт в закладки нажми CTRL+D
Китайские компьютерные разработчики добились почти десятикратного прироста производительности своих чипов по сравнению с американскими суперкомпьютерами на базе графических процессоров Nvidia, говорится в рецензируемом исследовании.
Это достижение ставит под сомнение многолетнее доминирование чипов американского производства в передовых научных исследованиях, а также потенциально указывает на непредвиденные последствия, эскалации технологических санкций Вашингтона.
Заслуга такой производительности и в инновационных методах оптимизации программного обеспечения, для повышения эффективности компьютеров на базе графических процессоров (GPU) китайской разработки. Эти оптимизации позволили китайской системе превзойти традиционные американские суперкомпьютеры в конкретных научных вычислениях.
Зависимость Китая от технологий США
Некоторые эксперты предупреждают, что одними лишь программными улучшениями невозможно бесконечно сокращать отставание в аппаратном обеспечении.
Это событие подчёркивает более широкую стратегию Пекина по снижению рисков, связанных с «точкой преткновения» – сильной зависимостью от западных технологий производства микросхем в условиях постоянных санкций США.
Ставки особенно высоки в областях, которые зависят от обширных вычислительных ресурсов. Учёные Поднебесной часто прибегают к крупномасштабному моделированию с высоким разрешением для решения реальных задач, как планирование защиты от наводнений или анализ подтопления городов.
Эти модели требуют значительных вычислительных мощностей и времени, что часто ограничивает их более широкое применение. Для китайских исследователей проблема усугубляется и тем, что в производстве передовых графических процессоров, как A100 и H100 от Nvidia, доминируют иностранные производители, а также ограничениями на экспорт, наложенными США.
Кроме того, ограничение экосистемы программного обеспечения Nvidia CUDA на работу с оборудованием сторонних производителей препятствует разработке независимых алгоритмов.
Решение с помощью программного обеспечения
В поисках решения этих проблем профессор Нань Тонгчао из Государственной лаборатории гидрологии, водных ресурсов и гидротехники Университета Хохай в Нанкине возглавил исследования в области параллельных вычислений на базе нескольких узлов и нескольких GPU.
Его команда сосредоточилась на использовании отечественных CPU и GPU для создания более эффективной модели супервычислений. Полученные результаты свидетельствуют о том, что эффективная передача данных и координация задач между несколькими узлами являются ключевыми факторами для минимизации потерь производительности при параллельных вычислениях.
В 2021 году исследователи Ок-Риджской национальной лаборатории представили «многоузловую, многопроцессорную» модель прогнозирования наводнений под названием TRITON с использованием суперкомпьютера Summit. Несмотря на развёртывание 64 узлов, TRITON обеспечил увеличение скорости обработки данных лишь в шесть раз.
В отличие от этого, инновационная архитектура Nan объединила несколько GPU в одном узле, чтобы компенсировать ограничения производительности китайского оборудования. Усовершенствовав обмен данными между узлами на программном уровне, модель позволила резко сократить немалые расходы на связь.
Реализованная на китайской вычислительной платформе общего назначения x86 с процессорами Hygon (модель 7185 с 32 ядрами, 64 потоками и тактовой частотой 2,5 ГГц) и отечественными графическими процессорами, поддерживаемыми 128 Гб памяти и пропускной способностью сети 200 Гб/с, новая модель достигла ускорения в шесть раз при использовании всего семи узлов, что на 89% меньше по сравнению с TRITON.
Для проверки модели команда учёных смоделировала процесс развития наводнения на водохранилище Чжуанли в Заочжуане, провинция Шаньдун. Используя 200 вычислительных узлов и 800 графических процессоров, симуляция была завершена за три минуты, достигнув ускорения более чем в 160 раз.
«Моделирование наводнений в масштабах речного бассейна за несколько минут означает, что теперь можно быстрее и детальнее проводить моделирование развития наводнений и различных сценариев выпадения осадков в режиме реального времени. Это может повысить эффективность борьбы с наводнениями и предотвращения стихийных бедствий, улучшить управление водохранилищами, снизив количество человеческих жертв и материальных потерь» – говорит Нан.
Код исследования доступен на платформе с открытым исходным кодом, и Нан отметил, что полученные результаты могут распространяться не только на моделирование наводнений, но и на гидрометеорологии, осадконакопления и взаимодействия поверхностных и подземных вод. Он добавил: «Будущая работа позволит расширить сферу применения и проверить устойчивость в инженерной практике».
Это достижение доказывает, что инновации часто ускоряются в условиях давления и нехватки ресурсов при глобальной гонке за превосходство, в том числе и области суперкомпьютеров.
Поделись видео:

