воскресенье, 28 января 2018 г.

Создана новая нейронная технология для восстановления изображений

Ученые из «Сколково», «Яндекса» и Оксфорда открыли доступ к совместно разработанной сверточной нейронной сети, умеющей реставрировать поврежденные и низкокачественные изображения. Разработка получила название Deep Image Prior.

Принцип работы

Новый алгоритм представляет собой комбинацию из машинного обучения и алгоритмов расчета вероятного повторения содержимого соседних областей. Главной отличительной особенностью Deep Image Prior является извлечение полезных данных из самого обрабатываемого изображения, а не из коллекций рисунков, на которых он обучался. Нейронная сеть в данном случае выступает в роле генератора, инициализируемого случайными данными, которые в процессе восстановления корректируются в соответствии с низкоуровневыми статистиками поврежденной картинки. Модель сети создана на базе библиотеки Torch.

Примеры работ

Deep Image Prior успешно справляется с рядом сложных задач реставрации:
  • Заполнение пробелов
Пример заполнения пробелов в изображении: библиотека
  • Удаление шума
Удаление шумов с картинки: истребитель
  • Устранение дефектов сжатия
Удаление дефектов: рисунок улитки
Новая разработка вместе с использованным инструментарием и примерами работ доступны в репозитории на Github под лицензией Apache 2.0.
Обработка с изображений и видео – одна из популярных областей применения машинного обучения. Напомним, что в начале декабря исследователи компании NVIDIA создали нейронную сеть, умеющую реалистично менять сезон и погоду на видеозаписи.
Источник: OpenNET

суббота, 13 января 2018 г.

Нейронную сеть обучили верстать сайты по картинке

Картинка поста
В мае 2017 года был представлен pix2code — инструмент, автоматически генерирующий пользовательские интерфейсы с помощью машинного обучения. На основе этого алгоритма разработчики из FloydHub решили создать собственную нейронную сеть, которая умеет верстать шаблоны сайтов с обыкновенных картинок.
Подробно по всем этапам разработки самой сети можно пройтись в источнике. А если хочется опробовать новинку сразу в действии, на GitHub есть инструкция по запуску.