Отличить такие ролики от записей реальных событий можно по ряду признаков, в первую очередь – по нарушению законов физики, сообщил РИА Новости ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов.
По его словам, современные модели, такие как Sora от OpenAI, Runway Gen-2 и Gen-3, Pika 2, Synthesia, Kaiber, а также голосовые движки ElevenLabs и Coqui.ai, способны генерировать высококачественный видеоконтент. Ключевым маркером фальсификации эксперт назвал некорректную физику: люди и животные двигаются слишком легко, предметы движутся без учета инерции и силы тяжести, а траектории движения жидкостей выглядят неестественно.
Селиверстов указал и на другие характерные артефакты генерации
Ошибки в освещении: несовпадение направления от нескольких источников света, неправильное или отсутствующее падение теней.
Несоответствия фона: повторяющиеся элементы, размытые или нечитаемые вывески, рисованные лица людей на заднем плане.
Аномалии глаз и мимики: асимметричные зрачки, «плавающий» взгляд, несинхронное движение губ со звуком, отсутствие естественной динамики кожи при выражении эмоций.
Дефекты рук и текстур: неестественно переплетенные или «резиновые» пальцы, исчезающие конечности, пластиковая текстура шерсти или кожи.
Некорректные отражения: в зеркалах и лужах отражения могут отставать, двигаться иначе или полностью отсутствовать.
Эксперт подчеркнул, что в реальной съемке присутствует «неровная» кинетика живого мира, которую ИИ пока не способен достоверно воспроизвести. Распознавание этих признаков позволяет критически оценивать видеоконтент в условиях роста возможностей нейросетей.