Сотрудники Университетского колледжа Лондона (UCL) выяснили, что люди не могут отличить до 25-27% звуковых дипфейков, созданных нейросетями, от настоящих голосов. Искусственный интеллектВыгодный бизнес или угроза человечеству?Ученые провели эксперимент с группой из пяти сотен носителей английского и китайского языков. Часть испытуемых долго время училась распознавать дипфейки. Опыт со специально обученными нейросетями показал, что и прошедшие обучение добровольцы, и простые обыватели смогли корректно выявить лишь 73-75% дипфейков. Это было одинаково характерно как для англоязычных добровольцев, так и для носителей китайского языка. Обе группы уступили системе ИИ, которая корректно распознала все сгенерированные аудиозаписи.
Профессор UCL Льюис Гриффин считает, что из-за высокой скорости развития медиаконтента, создаваемого с помощью искусственного интеллекта, уже в ближайшем будущем человечество столкнется с новыми рисками.
Ученые рекомендуют разрабатывать стратегии и инструменты для борьбы с неправомерным использованием таких технологий без ограничения их законного применения, сообщает издание PLoS ONE.
Ранее Московский городской педагогический университет (МГПУ) внедрил систему искусственного интеллекта, которая прогнозирует успеваемость студентов и рассчитывает вероятность их отчисления. Нейросеть анализирует всю информацию о студенте и предсказывает результаты будущих экзаменов.