Системы распознания человека достаточно полотно вошли в современную жизнь. IBM и Unilever проводит тестирование соискателей, в Disney искусственный интеллект изучает эмоции зрителей на сеансах, продукты от Microsoft показывают реакцию учеников на подачу учебного материала.
Все складывалось хорошо до последнего скандала. Во время тестирования анализатора эмоций от Microsoft выяснилось, что ИИ занижала оценки эмоций у темнокожих граждан. Даже если человек искренне улыбался, система помечала его ярлыком «обманщик», который мог значительно снизить оценки умственного развития.
Любая система распознавания эмоций действует на основе работы двух модулей. Первый модуль, состоит из камеры с компьютерным зрением, распознающим мимику человека. Второй -это профильный ИИ, который на основе данных о текущих действиях и сведений о ситуации должен принять решение, что происходит в его голове человека. Далее, ИИ дает оценку поведению, делает выводы о склонностях абитуриента и проверяет его на соответствие поставленной задаче.
Схожие проблемы обнаружились во многих других системах распознавания эмоций и образов людей. программа дает сбой тем чаще, чем темнее оттенок кожи у конкретного человека. Как поясняют специалисты, это не чья то шутка, а действительные сбои алгоритмов.