Компания Facebook будет производить графические серверы на основе открытого лицензирования (open source GPU server) для машинного обучения. В модели Big Sur будет восемь графических ускорителей Nvidia Tesla M40 с потребляемой мощностью до 300 Вт каждый (именно поэтому на заглавном фото видны толстые черные жгуты), а сама система станет первой с графическими картами премиум-класса (high-end) для нейронных сетей глубокой обработки данных.
Обычно, в любом компьютере есть центральный процессор (ЦП или CPU) и дополнительный графический (со)процессор GPU (graphics processing unit). Если центральный процессор отвечает за выполнение вычислительных операций, причем основными из них являются сложение и сдвиг (вычитание – это сложение с дополнительным кодом, умножение – сложение с многократным сдвигом и т.д.), то графический процессор нацелен на обработку изображений, точнее на подготовку изображений к отображению (рендеринг). Поэтому за счет специализированной конвейерной архитектуры GPU намного эффективнее в обработке графической информации, чем типовой центральный процессор.
Причем оказалось, что во многих областях глубокого анализа в нейронных сетях арифметическое сложение не требуется вовсе вместе с типовым центральным процессором, а всю работу можно поручить графическому процессору, который становится центральным. Более года назад к такому выводу независимо друг от друга пришли компании Baidu и Microsoft, в недрах которых как раз и зародилась идея об использовании графических серверов для задач поиска в базе изображений. В феврале этого года Microsoft и Google анонсировали прорыв в области распознавания образов на основе глубоких нейронных сетей (deep neural network) – мы писали об этом по поводу идентификации эмоций на лицах людей. А сейчас Facebook готовит многосерверную систему Big Sur из показанных на заглавном рисунке стоечных серверов и специальных коммутаторов (свичей) на 100 Гбит/с.
Технических подробностей о Big Sur пока нет, равно как и плановой даты запуска системы, хотя заявлен проект открытых вычислений Open Compute Project, в котором есть требования к техническим характеристикам стойки Open Rack и совместимости нескольких версий топологии шины PCI-e.
Компания Facebook собирается на серверах с графическими процессорами (и картами) Nvidia заняться искусственным интеллектом, причем выбор Nvidia Tesla M40 на основе Tesla Accelerated Computing Platform обусловлен поддержкой спецификации интерфейса OpenCL, который показался компании Facebook наиболее перспективным.
В публикациях самой Facebook сообщается о специальном оборудовании для тренировки систем AI (artificial intelligence, искусственный интеллект) и ML (machine learning, машинное обучение).
В заключении хочется посмеяться вместе с вами над публикацией на эту тему во вполне себе уважаемом CNews (цитата и комментарий):
«Facebook откроет исходники сервера Big Sur» – исходником называют исходный код программы (ее текст на языке программирования до компиляции). Big Sur – сервер аппаратный, у него не может быть исходников по определению.
«Компания Facebook заявила о намерении опубликовать … проектировочную документацию» – во время проектирования/конструирования разрабатывают проектную документацию.
«Big Sur используется в дата-центрах Facebook для проведения экспериментов…» – уверяю вас, один такой сервер никому вообще не нужен, а вот штук сто и более могут использоваться для экспериментов в области искусственного интеллекта.
….
Источник:
http://www.electronics-eetimes.com/en/facebook-preps-open-gpu-server.html
https://code.facebook.com/posts/1687861518126048/facebook-to-open-source-ai-hardware-design/
http://www.cnews.ru/news/top/2015-12-11_facebook_otkroet_ishodniki_servera_dlya_iskusstvennogo