Сообщество Ставропольского края Сообщество Ставропольского края

Эксперт Ставропольского вуза рассказал, как распознать контент, созданный нейросетями

Эксперт Ставропольского вуза рассказал, как распознать контент, созданный нейросетями
13:57

Специалист Северо-Кавказского федерального университета рассказал, как выявлять контент, созданный искусственным интеллектом, и не стать жертвой цифровых подделок.

Отличить подлинные материалы от созданных нейросетями становится всё сложнее. В соцсетях появляются несуществующие люди, видео с политиками и знаменитостями, которые говорят то, чего в реальности никогда не говорили. Голосовые сообщения имитируют близких, точно копируя тембр и интонации.

«В эпоху искусственного интеллекта особенно важно не терять бдительность. Проверяйте изображения и видео через сервисы обратного поиска, сравнивайте факты из разных источников, не доверяйте слишком идеальным кадрам и громким словам. Нейросети умеют имитировать реальность, но критическое мышление всё ещё остаётся лучшей защитой от обмана», — отметил начальник управления по информации и связям с общественностью СКФУ Максим Тизенгаузен.

У фотографий, созданных ИИ, есть характерные особенности: ошибки в прорисовке пальцев, ушей и теней, излишне идеальная кожа без текстуры, неестественные глаза, нечитаемые надписи на вывесках, размытый фон со странной перспективой.

Видео выдаёт несовпадение движения губ и речи, отсутствие естественных микродвижений, механическое моргание, застывшая мимика. Свет и тени, не подчиняющиеся законам физики, также указывают на дипфейк.

Синтетическая речь звучит слишком ровно, без пауз, вздохов и запинок. Эмоции кажутся стерильными, словно озвучены роботом. Часто отсутствуют фоновые звуки, создавая эффект вакуума.

Нейросети требуют ответственности от всех участников процесса: прозрачности от разработчиков, маркировки от медиа и внимательности от потребителей контента, подчёркивает эксперт.


Источник: news.1777.ru
Нет комментариев. Ваш будет первым!