вНовости программирования

Google представила второе поколение чипов TPU для машинного обучения

На конференции Google I/O 2017 компания представила новое поколение своих чипов для машинного обучения, Tensor Processing Units (TPU). Они справляются с задачами машинного обучения эффективнее, чем обычные центральные (CPU) и графические (GPU) процессоры, и являются улучшением первого поколения, представленного в прошлом году.

В чём отличие второго поколения TPU?

По словам Google, производительность новых чипов достигает 180 терафлопс. Кроме того, они способны решать большее количество задач: если чипы первого поколения справлялись только с логическими умозаключениями, то чипы второго поколения уже могут использоваться для работы с моделями машинного обучения.

Приведем более наглядный пример. Новые чипы могут научить модель понимать, является ли объект на фото деревом, машиной или котом, в то время как старых хватало только для предположений вроде «с вероятностью 85% на картинке изображено дерево, а не брокколи».

TPU

Насколько они быстры?

Google отметила:

Вот простое сравнение: чтобы обучить нашу новую масштабную модель для перевода на 32 лучших из доступных в продаже графических процессоров, потребуется день, в то время как 1/8 нашей установки из TPU справится с этим за утро.

TPU

Сравнение, конечно, не самое однозначное (возможно, имелся в виду новый GPU NVIDIA GV100 на архитектуре Volta), но оно хотя бы позволяет оценить производительность чипов относительно графических процессоров, которые обычно используются для машинного обучения.

И как их использовать?

Вряд ли TPU появятся в продаже. Однако эти чипы скоро станут доступны в рамках платформы Google Cloud Platform, что позволит вам начать работу с моделями на своих центральных и графических процессорах, а потом перенести её в облако для дальнейшей обработки на TPU.

TPU

А для тех, кому такой вариант кажется слишком дорогостоящим, Google подготовила сюрприз.

Какой сюрприз?

Компания сообщила о запуске программы TensorFlow Research Cloud, предоставляющей исследователям в области машинного обучения бесплатный доступ к кластеру из 1000 TPU, каждый из которых будет снабжён 64 ГБ оперативной памяти. Вычислительное время будет ограничено для каждого конкретного проекта.

В обмен от вас потребуется лишь делиться своими исследованиями и исходными кодами. Для тех, кто не может раскрывать эту информацию, Google планирует запустить программу Cloud TPU Alpha.

Подать заявку на участие в программе пока нельзя, но вы можете заполнить форму, указав различную информацию о своём опыте работы с машинным обучением.

Типичный программист.

Источник: Типичный программист