Разработчики признаются: главным камнем преткновения стало избавление от ложных срабатываний. Как ИИ должен отличить драку от страстных объятий, бурного спора или зажигательного танца? В противном случае нейросети начали бы дергать службы безопасности каждые пять минут, создавая хаос там, где нужен порядок. Первыми на эксперимент подписались ритейлеры — они устанавливают систему в торговых залах, на складах и в логистических центрах. Там, где конфликты вспыхивают как спичка, а счет идет на секунды.
Однако, как часто бывает в мире высоких технологий, парадный фасад впечатляющих новинок соседствует с тревожной изнанкой. Пока одни ИИ-камеры учатся ловить будущих драчунов за запястье, другие — уже в деле — дают сбой там, где цена ошибки измеряется миллиардами рублей и вопросами безопасности.
Речь идет о системе распознавания лиц на московских стройках, на которую из бюджета было выделено порядка 10 миллиардов рублей. Механизм, запущенный в массовое внедрение с 2025 года, должен был стать непреодолимым фильтром против нелегальной занятости. Камеры на турникетах сверяют каждое лицо с объединенной биометрической базой: отпечатки пальцев, фото из миграционных центров — все в одном месте. Идея красивая: нелегал или человек в розыске автоматически отсеивается.

На практике картина вышла смазанной — в прямом и переносном смысле. Каждый десятый рабочий превращается для нейросети в «невидимку». Алгоритм то пропускает того, кого следовало бы остановить, то блокирует людей с абсолютно чистыми документами. В чем же корень зла?
Ответ банален и показателен для современной России с ее многонациональным ландшафтом. Обучали алгоритм в основном на «европейской внешности». В итоге точность распознавания лиц выходцев из Средней Азии резко падает. Добавьте сюда суровые реалии стройки: плохой свет, каски, закрывающие пол-лица, камеры, которые банально «тупят» в условиях пыли и грязи. Весь многомиллиардный «цифровой контур» дает сбой. Люди с нормальными документами не могут пройти на объект, а те, кто числится в розыске, порой спокойно минуют турникеты.
Получается парадоксальная ситуация. В одном сегменте нам обещают «превентивное успокоение буйных» с помощью анализа жестов и мимики. В другом — уже потрачены огромные деньги, а банальное распознавание лиц (задача куда более простая, чем предсказание драки) работает едва ли не в половину силы. И это заставляет задаться вопросом: а не ждет ли аналогичное фиаско и первые «умные камеры» в ТЦ? Если алгоритмы путают объятия с потасовкой, а из-за некачественного освещения не видят различия между узким разрезом глаз европейца и азиата, что помешает новой системе ошибаться с той же регулярностью?

Пока же создатели «антидрачного» ИИ бьются над тем, чтобы научить его отличать танец от мордобоя. А строительные компании, заплатившие миллиарды, с горечью констатируют: цифровой надзиратель за мигрантами — вещь капризная, требующая «человеческого пригляда». Остается надеяться, что дорогостоящие ошибки первых проектов помогут учесть все риски при внедрении следующих. Иначе вместо защиты граждан мы рискуем получить систему, которая будет одинаково бестолково вызывать полицию то на страстное объятие, то на мирный спор — и при этом с завидным упрямством не замечать настоящую угрозу.
