<НА ГЛАВНУЮ

Titans и MIRAS: Переосмысляем длительный контекст в ИИ

Изучите Titans и MIRAS от Google Research для эффективного моделирования длительного контекста в ИИ.

Что дальше после Transformers?

Google Research предлагает новую архитектуру Titans и фреймворк MIRAS для повышения полезности долгосрочной памяти в последовательных моделях, сохраняя при этом эффективное обучение и линейный вывод.

Архитектура Titans: Глубокая Нейронная Память

Titans интегрирует глубокую нейронную память в архитектуру на основе Transformer. Эта архитектура решает проблемы, связанные с ограничениями стандартных Transformers, которые полагаются на кеш с ключами и значениями, затрудняющими работу с большими контекстами. Titans сохраняет эффективные механизмы обучения, которые конкурентоспособные алгоритмы, такие как Mamba-2 и FlashAttention, не могут достичь.

Почему Titans и MIRAS?

Стандартные Transformers сталкиваются с экспоненциальными затратами при увеличении длины контекста. Это становится все более непрактичным для задач, требующих обработки экстремальных длин, таких как моделирование последовательностей генома. Titans объединяет традиционное внимание с модулем долгосрочной памяти, повышая производительность при контроле вычислительных затрат.

Titans: Обучение Долгосрочной Памяти

Модуль Titans функционирует как глубокий многослойный перцептрон, где внимание используется для краткосрочной памяти, но отдельная нейронная память сохраняет информацию в долгосрочной перспективе. Архитектура использует три ветви памяти:

  • Кора: Стандартное обучение с вниманием.
  • Контекстуальная память: Адаптация на основе недавних последовательностей.
  • Постоянная память: Кодирует знания, полученные в ходе предварительного обучения.

Компрессируя предыдущие токены в сводки, Titans эффективно интегрирует этот дополнительный контекст в механизм внимания, позволяя модели доступ к значительным историческим данным при обработке текущих входных данных.

Экспериментальная Эффективность

В таких бенчмарках, как C4 и HellaSwag, Titans показывает превосходные результаты по сравнению с моделями нынешнего уровня, эффективно обрабатывая экстремально длинные контексты до 2,000,000 токенов, не теряя гибкости в обучении. Дизайн модели позволяет сохранять высокую точность, уменьшая параметры по сравнению с более крупными моделями, такими как GPT-4.

Фреймворк MIRAS: Ассоциативная Память

MIRAS обобщает структуру ассоциативной памяти, позволяя последовательным моделям сопоставлять ключи и значения, эффективно управляя процессом обучения и забвения. Определяя последовательные модели через четыре ключевых дизайнерских выбора—структура памяти, внимательный bias, затвор удержания и правило оптимизации—MIRAS способствует разработке новых архитектур без внимания.

Ключевые Выводы

  • Titans предлагает масштабируемую архитектуру глубокой нейронной памяти, позволяющую выборочное хранение токенов через ассоциативную память.
  • MIRAS устанавливает единый подход к моделированию последовательностей, определяя архитектуры в терминах управления памятью.
  • Titans демонстрирует существенное улучшение в языковом моделировании и задачах рассуждения, что делает его ключевым для обработки обширных контекстов эффективно.
🇬🇧

Switch Language

Read this article in English

Switch to English