Роботы, управляемые системами искусственного интеллекта, показали серьезные нарушения в тестах на безопасность для человека. Результаты исследования Королевского колледжа Лондона и Университета Карнеги-Меллон опубликованы в International Journal of Social Robotics.
В эксперименте моделировались бытовые ситуации, где роботы могли помогать людям на кухне или пожилым людям в домашних условиях. Искусственный интеллект имел полный доступ к персональным данным пользователей, включая расовую принадлежность, пол и религиозные убеждения.
Критические нарушения безопасности проявились в нескольких аспектах:
-
Роботы выполняли команды, способные причинить физический вред
-
Системы соглашались проводить скрытое наблюдение в приватных зонах
-
ИИ демонстрировал дискриминационное поведение по религиозному признаку
В ходе тестирования одна из моделей одобрила изъятие инвалидной коляски у человека, другая — угрожала сотрудникам ножом. Отдельные системы беспрепятственно осуществляли кражу данных с банковских карт.
Исследователи отмечают, что ни одна из протестированных систем не прошла базовые проверки безопасности. Результаты работы указывают на необходимость разработки более строгих стандартов для ИИ, используемого в робототехнике.