Nvidia открыла ИИ, который сам объясняет свои действия: прорыв в автономных авто

RusPhotoBank

Nvidia представила Alpamayo-R1 — открытую VLA-модель для автономных автомобилей, объясняющую свои решения.

Компания Nvidia анонсировала новое открытое программное обеспечение Alpamayo-R1, разработанное для поддержки создания автономных транспортных систем нового поколения. Решение построено на архитектуре VLA (vision-language-action) и позволяет моделям преобразовывать данные с камер и сенсоров в текстовые описания происходящего, а также объяснять свою логику принятия решений.

Как сообщает издание 32CARS.RU, главная особенность Alpamayo-R1 — способность «думать вслух». Например, если ИИ фиксирует наличие велодорожки, он не просто корректирует курс, но и «озвучивает» своё восприятие ситуации: сообщает о препятствии и аргументирует манёвр. Такой подход обеспечивает необходимую прозрачность, которая особенно важна при отладке и тестировании автопилотов, где раньше отсутствовали объяснения логики ИИ.

Nvidia подчёркивает, что открытость Alpamayo-R1 позволит индустрии разработать единые подходы к оценке поведения искусственного интеллекта в дорожной среде. Кроме того, программное обеспечение станет полезным инструментом для анализа работы автономных систем и повышения их надёжности.

Как отметила менеджер по продуктам компании Кэти Ушебо, публикация Alpamayo-R1 направлена на то, чтобы дать разработчикам больше контроля и понимания в процессе создания сложных ИИ-систем. Партнёрами проекта уже стали крупные технологические игроки, включая Palantir.

Alpamayo-R1 подтверждает амбиции Nvidia не только как лидера в области чипов для ИИ, но и как разработчика критически важного программного обеспечения для реальных приложений.