Надо сразу уточнить, что рейтинг этот совсем молодой – бенчмарк HPCG
(High Performance Conjugate Gradient Benchmark) появился всего пару лет
назад и сейчас находится в стадии активного развития. В конечном итоге
авторы надеются если уж и не вытеснить всем известный HPL (High
Performance Linpack), на базе которого составляется самый известный
рейтинг суперкомпьютеров TOP-500, то как минимум дополнить его,
показывая более реалистичную оценку реальной производительности больших
«числодробилок». Достаточно взглянуть на свежую, ноябрьскую
версию рейтинга HPCG, опубликованную на конференции SC15 на прошлой
неделе. Строго говоря, можно даже просто пробежаться глазами по первой
десятке лидеров – создатели заботливо указали в отдельном столбце
напротив каждого участника его текущее положение в “традиционном” TOP-500.
Совпадение есть только в первом пункте, но это как раз особый случай – нынешний китайский “Млечный путь-2” (Tianhe-2) с его тремя с лишними миллионами ядер и энергопотреблением, которое требует источника питания уровня мини-ТЭЦ, является скорее попыткой экстенсивного наращивания вычислительной мощности. А вот со всеми остальными участниками ситуация не такая однозначная – лидерство в TOP-500 совсем не означает победу в HPCG, что как раз и указывает на несовершенство HPL. Да, сразу стоит оговориться, что строить какие-либо зависимости между двумя рейтингами и искать соотношения между их участниками не совсем корректно, так как в список HPCG Benchmark пока входит гораздо меньше машин. Да и в целом участники обоих списков пересекаются не полностью – есть машины, которые не успели попасть в TOP-500, но уже засветились в новом бенчмарке.
Почему так получилось? В описании HPCG Benchmark его разработчики, которые, кстати говоря, принимали участие и в создании LINPACK с TOP-500, говорят, что сейчас HPL потерял свою актуальность. В то время, когда он создавался, а было это четверть века назад, он действительно позволял полностью нагрузить тогдашние компьютеры задачей, близкой к реальным. Однако с тех пор прошло много времени – появились новые типы вычислительных узлов, были переработаны математические модели и алгоритмы, изменились вычисляемые задачи. Поэтому попытка построить суперкомпьютер, способный показать хорошие результаты только в HPL, в реальности обернётся неэффективным исполнением действительно нужных вычислений. Грубо говоря, HPL учитывает только вычислительные возможности машины («числодробилку»), что само по себе не является мерилом производительности, так как в прикладных задачах нередко важны и другие параметры вроде быстроты связи между узлами, эффективностью работы нерегулярного доступа к памяти, соотношения между временем вычислений и временем для получения/передачи данных.
Однако отлично перемалывать числа умеют GPU/MIC, которые всё чаще используются в суперкомпьютерах – в последнем TOP-500 уже более сотни машин с ускорителями. В качестве примера авторы HPCG приводят машину Titan, которая занимала первое место в TOP-500 три года назад: 18 686 узлов, в каждом из которых стоит 16-ядерный AMD Opteron 6274, 32 Гбайт RAM и NVIDIA Tesla K20X (6 Гбайт GDDR5). Он достиг почти двух третей от теоретической производительности, но фактически во время работы HPL центральные процессоры играли роль группы поддержки, просто скармливая данные GPU. На практике же существует множество приложений, который в основном выполняются на CPU, лишь иногда выгружая часть задач на внешние ускорители. Создатели HPCG Benchmark таким образом пытаются определить более “справедливую”, приближенную к реальности производительность машин, оценить их сбалансированность для разных типов задач.
Почему это важно? С одной стороны, суперкомпьютеры становятся всё дороже и дороже. С другой – как это ни печально, достижения в этой области во многом носят имиджевый характер для государств, о чём говорится в летнем отчёте IDC. Поэтому подгонка очередной машины под участие в TOP-500 экономически неэффективна. А раз уже все так стремятся посоревноваться, то пусть хотя бы эта гонка будет иметь практический смысл, что и предлагает HPCG Benchmark. В конце концов, у него есть шансы стать новым инструментом для определения лидерства в гонке HPC-вычислений — ведь даже к Green500 стали присматриваться. Для нас же пока приятно отметить, что 8 из 64 машин в текущем рейтинге HPCG Benchmark создано силами российских компаний (одна из них, правда, находится в Германии). Впрочем, бытует мнение, что нынешние архитектуры суперкомпьютеров скоро изживут себя — и придётся переходить на новые технологии. Но об этом мы поговорим в следующий раз.
Совпадение есть только в первом пункте, но это как раз особый случай – нынешний китайский “Млечный путь-2” (Tianhe-2) с его тремя с лишними миллионами ядер и энергопотреблением, которое требует источника питания уровня мини-ТЭЦ, является скорее попыткой экстенсивного наращивания вычислительной мощности. А вот со всеми остальными участниками ситуация не такая однозначная – лидерство в TOP-500 совсем не означает победу в HPCG, что как раз и указывает на несовершенство HPL. Да, сразу стоит оговориться, что строить какие-либо зависимости между двумя рейтингами и искать соотношения между их участниками не совсем корректно, так как в список HPCG Benchmark пока входит гораздо меньше машин. Да и в целом участники обоих списков пересекаются не полностью – есть машины, которые не успели попасть в TOP-500, но уже засветились в новом бенчмарке.
Почему так получилось? В описании HPCG Benchmark его разработчики, которые, кстати говоря, принимали участие и в создании LINPACK с TOP-500, говорят, что сейчас HPL потерял свою актуальность. В то время, когда он создавался, а было это четверть века назад, он действительно позволял полностью нагрузить тогдашние компьютеры задачей, близкой к реальным. Однако с тех пор прошло много времени – появились новые типы вычислительных узлов, были переработаны математические модели и алгоритмы, изменились вычисляемые задачи. Поэтому попытка построить суперкомпьютер, способный показать хорошие результаты только в HPL, в реальности обернётся неэффективным исполнением действительно нужных вычислений. Грубо говоря, HPL учитывает только вычислительные возможности машины («числодробилку»), что само по себе не является мерилом производительности, так как в прикладных задачах нередко важны и другие параметры вроде быстроты связи между узлами, эффективностью работы нерегулярного доступа к памяти, соотношения между временем вычислений и временем для получения/передачи данных.
Однако отлично перемалывать числа умеют GPU/MIC, которые всё чаще используются в суперкомпьютерах – в последнем TOP-500 уже более сотни машин с ускорителями. В качестве примера авторы HPCG приводят машину Titan, которая занимала первое место в TOP-500 три года назад: 18 686 узлов, в каждом из которых стоит 16-ядерный AMD Opteron 6274, 32 Гбайт RAM и NVIDIA Tesla K20X (6 Гбайт GDDR5). Он достиг почти двух третей от теоретической производительности, но фактически во время работы HPL центральные процессоры играли роль группы поддержки, просто скармливая данные GPU. На практике же существует множество приложений, который в основном выполняются на CPU, лишь иногда выгружая часть задач на внешние ускорители. Создатели HPCG Benchmark таким образом пытаются определить более “справедливую”, приближенную к реальности производительность машин, оценить их сбалансированность для разных типов задач.
Почему это важно? С одной стороны, суперкомпьютеры становятся всё дороже и дороже. С другой – как это ни печально, достижения в этой области во многом носят имиджевый характер для государств, о чём говорится в летнем отчёте IDC. Поэтому подгонка очередной машины под участие в TOP-500 экономически неэффективна. А раз уже все так стремятся посоревноваться, то пусть хотя бы эта гонка будет иметь практический смысл, что и предлагает HPCG Benchmark. В конце концов, у него есть шансы стать новым инструментом для определения лидерства в гонке HPC-вычислений — ведь даже к Green500 стали присматриваться. Для нас же пока приятно отметить, что 8 из 64 машин в текущем рейтинге HPCG Benchmark создано силами российских компаний (одна из них, правда, находится в Германии). Впрочем, бытует мнение, что нынешние архитектуры суперкомпьютеров скоро изживут себя — и придётся переходить на новые технологии. Но об этом мы поговорим в следующий раз.
Комментариев нет:
Отправить комментарий