На прошедшей неделе Venturebeat опубликовал релиз компании Google о выходе TensorFlow Lite, которая даёт возможность разработчикам приложений использовать искусственный интеллект в мобильных сервисах. Мобильная версия программы популярного открытого исходного кода Google впервые была анонсирована на конференции разработчиков I/O.

TensorFlow Lite доступна для разработчиков приложений Android и IOS.

Со времен дебюта TensorFlow Lite в мае появилось несколько конкурирующих продуктов, таких как Core ML от Apple, облачный сервис Clarifai для изучения искусственного интеллекта на мобильном устройстве и оборудование вроде процессора искусственного интеллекта Kirin 970 в смартфоне Huawei Mate 10.

“Как вам известно, TensorFlow уже поддерживает мобильную и встроенную версию моделей с помощью мобильного интерфейса TensorFlow”, — написала команда TensorFlow в своём блоге 14 ноября. “В перспективе TensorFlow Lite следует рассматривать как эволюцию мобильного TensorFlow и, по мере развития, оно послужит главным решением для использования в мобильных и встроенных устройствах. Сразу после этого объявления TensorFlow Lite стал доступен в качестве предварительной версии для разработчиков, а TensorFlow Mobile по-прежнему доступен, чтобы поддерживать существующие приложения”.

TensorFlow Lite запускается с доступом к ограниченному числу предварительно подготовленных моделей искусственного интеллекта, среди которых MobileNet и Inception-v3 для идентификации объектов с машинным зрением и Smart Reply (тип естественной лингвистической обработки, который выдаёт предложенные ответы и доступен в родных приложениях Google, таких как Gmail и мобильный чат Allo).

Кастомизированные модели, подготовленные с персональным набором данных пользователей, также могут быть использованы.

Ещё больше моделей и функциональных возможностей в будущем будут добавляться, основываясь на потребностях, которые продемонстрируют пользователи, поясняет команда TensorFlow в своём блоге.

TensorFlow Lite использует интерфейс Android Neutral Networks и отходит от применения центрального процессора, когда аппаратные ускорители не доступны. Это делается для того, чтобы убедиться, что модели могут функционировать на различных устройствах.

Машинное обучение