Названы ключевые признаки ИИ-контента и способы распознавания фейков

В ВТБ указали на анатомические ошибки рисунков из ИИ

Фото: dotshock / Shutterstock / Fotodom

В ВТБ рассказали, как отличить тексты и изображения, созданные нейросетями. Так, по словам экспертов, сгенерированный визуальный контент чаще всего выдают анатомические ошибки, искажения перспективы и нелогичные детали в кадре, а в ИИ-текстах — избыточную шаблонность, повторяемость формулировок и упрощенный стиль.

«Наиболее частыми признаками нейросетевой генерации становятся анатомические ошибки, например, лишние или деформированные пальцы, искажения перспективы, неестественные тени и отражения, а также артефакты или бессмысленные надписи. Кроме того, стоит насторожиться, если в кадре присутствуют предметы, которые нарушают законы физики или не соответствуют здравому смыслу», — рассказал Team Lead DS департамента анализа данных и моделирования ВТБ Алексей Пустынников.

Наряду с визуальным контентом широко распространяются и тексты, созданные нейросетями. При этом сгенерированные тексты зачастую отличаются повторяемостью формулировок, однотипной интонацией, избыточными пояснениями, чрезмерной вежливостью и оптимизмом, а также расплывчатым выражением мнения. Как отмечают эксперты ВТБ, ключ к распознаванию ИИ-контента — в понимании типичных особенностей его структуры и правильном подходе к оценке самой информации.

«Для массово доступных моделей характерна определенная шаблонность: избыточная дружелюбность, повторяемость, обилие стандартных оборотов и "воды". Важно всегда критически оценивать контент: насколько он полезен, сколько усилий вложено в его создание, используется ли в тексте личный опыт автора и можно ли проверить полученную информацию по независимым источникам», — подчеркнул ведущий специалист управления партнерств и IТ-процессов ВТБ Виктор Булатов.

По мере распространения ИИ-контента востребованными становятся инструменты, которые позволяют проверять его достоверность. Наиболее активно развиваются модели-детекторы, способные автоматически определять, был ли текст или изображение сгенерированы нейросетью, а также оценивать достоверность и корректность информации.

«В ближайших планах ВТБ — обучение специальных моделей-детекторов, чтобы отслеживать наличие токсичных или чувствительных тем в сгенерированном контенте и проверять достоверность выдачи. А для обычных пользователей главное правило остается прежним: перепроверяйте информацию по надежным источникам», — поясняет руководитель направления разработки ИИ-решений ВТБ Лев Меркушов.

Растущая доступность генеративных моделей делает навыки критического восприятия информации особенно важными, уверены эксперты ВТБ. Развитие технологий, по их мнению, должно сопровождаться и развитием механизмов защиты. Внедрение инструментов для распознавания ИИ-контента, повышение цифровой грамотности и системный подход к проверке данных позволяют минимизировать риски и использовать возможности искусственного интеллекта с максимальной эффективностью.

Лента добра деактивирована.
Добро пожаловать в реальный мир.