Модель на основе энергии - Energy based model

An энергетическая модель (EBM) - это форма генеративная модель (GM) импортировано напрямую из статистическая физика к обучению. GM изучает основное распределение данных, анализируя образец набора данных. После обучения GM может создавать другие наборы данных, которые также соответствуют распределению данных.[1] EBM представляют собой единую основу для многих вероятностных и не вероятностных подходов к такому обучению, особенно для обучения. графический и другие структурированные модели.[2]

EBM изучает характеристики целевого набора данных и генерирует аналогичный, но более крупный набор данных. EBM обнаруживают скрытые переменные набора данных и создать новые наборы данных с аналогичным распределением.[2]

Целевые приложения включают обработка естественного языка, робототехника и компьютерное зрение.[2]

История

Ранняя работа над EBM предлагала модели, которые представляли энергию как совокупность скрытых и наблюдаемых переменных. ДМ появились в 2003 году.[3]

Подход

EBM фиксируют зависимости, связывая ненормализованный скаляр вероятности (энергия) к каждой конфигурации комбинации наблюдаемых и скрытых переменных. Вывод состоит из поиска (значений) скрытых переменных, которые минимизируют энергию при заданном наборе (значений) наблюдаемых переменных. Точно так же модель изучает функцию, которая связывает низкие энергии с правильными значениями скрытых переменных и более высокие энергии с неправильными значениями.[2]

Традиционные EBM полагаются на стохастический градиентный спуск (SGD) методы оптимизации, которые обычно трудно применить к наборам данных большой размерности. В 2019 г. OpenAI опубликовал вариант, который вместо Динамика Ланжевена (LD). LD - это итеративный алгоритм оптимизации, который вводит шум в оценщик как часть обучения целевая функция. Его можно использовать для Байесовское обучение сценарии путем создания выборок из апостериорного распределения.[2]

EBM не требуют нормализации без оценки нормализация постоянство в вероятностных моделях, повышающее гибкость.[2]

Образцы генерируются неявно через Цепь Маркова Монте-Карло подход.[4] Буфер воспроизведения прошлых изображений используется с LD для инициализации модуля оптимизации.[2]

Характеристики

EBM демонстрируют полезные свойства:[2]

  • Простота и стабильность - EBM - единственный объект, который необходимо спроектировать и обучить. Для обеспечения баланса отдельные сети не нужно обучать.
  • Адаптивное время вычислений - EBM может генерировать четкие, разнообразные выборки или (быстрее) грубые, менее разнообразные выборки. В бесконечном времени эта процедура производит истинные образцы.[1]
  • Гибкость - В Вариационные автоэнкодеры (VAE) и потоковые модели, генератор изучает карту из непрерывного пространства в (возможно) прерывное пространство, содержащее различные режимы данных. EBM могут научиться назначать низкие энергии непересекающимся областям (несколько режимов).
  • Адаптивная генерация - генераторы EBM неявно определяются распределением вероятностей и автоматически адаптируются по мере изменения распределения (без обучения), что позволяет EBM адресовать области, в которых обучение генератора нецелесообразно, а также минимизировать коллапс режима и избегать ложных режимов из-за - образцы распространения.[4]
  • Композиционность - отдельные модели представляют собой ненормализованные распределения вероятностей, позволяющие комбинировать модели с помощью продукт экспертов или другие иерархические методы.

Результаты экспериментов

В наборах данных изображений, таких как СИФАР-10 и ImageNet 32x32 модель EBM относительно быстро генерировала высококачественные изображения. Он поддерживает комбинирование функций, извлеченных из одного типа изображения, для создания других типов изображений. Он смог обобщить, используя наборы данных вне распределения, превзойдя по производительности и авторегрессионные модели. EBM была относительно устойчивой к враждебным возмущениям, ведя себя лучше, чем модели, специально обученные против них с помощью обучения классификации.[2]

Альтернативы

EBM конкурируют с такими методами, как VAE или Генеративные состязательные нейронные сети (GAN).[2]

Смотрите также

Рекомендации

  1. ^ а б «Неявные методы генерации и обобщения для энергетических моделей». OpenAI. 2019-03-21. Получено 2019-12-27.
  2. ^ а б c d е ж грамм час я j Родригес, Хесус (2019-04-01). «Создание наборов данных для обучения с использованием реально масштабируемых моделей на основе энергии». Средняя. Получено 2019-12-27.
  3. ^ ЛеКун, Янн (сентябрь 2003 г.). "CBLL, Исследовательские проекты, Лаборатория вычислительных и биологических исследований, Институт Куранта, Нью-Йоркский университет". cs.nyu.edu. Получено 2019-12-27.
  4. ^ а б Ду, Илунь; Мордач, Игорь (2019-03-20). «Неявная генерация и обобщение в энергетических моделях». arXiv:1903.08689 [cs.LG ].

внешняя ссылка