Согласно предложениям, содержащимся в правительственных материалах, которые стали основой для разработки данного законопроекта, наличие требования о приоритете человеческого фактора при работе с ИИ является необходимым условием. Источник, близкий к профильным ведомствам, сообщил, что Министерство цифрового развития планирует представить документ на согласование в правительство до конца февраля.
Депутат Госдумы Антон Немкин подчеркивает, что игнорирование этого принципа может породить ряд системных проблем. К ним относятся угрозы дискриминации из-за предвзятости данных, на которых обучаются ИИ-системы, а также размывание ответственности в случае ошибок – становится неясно, кто в итоге должен отвечать: разработчик, оператор или государство. Кроме того, автоматизированные и категоричные решения могут подорвать доверие граждан к цифровым сервисам.
Своевременность этих мер подтверждается недавними инцидентами. В начале февраля стало известно о случаях, когда ИИ, используемый в медицинском оборудовании, привел к травмам пациентов. В частности, навигационная система TruDi, по предварительным данным, допускала ошибки, дезориентируя хирургов во время операций на головном мозге, что привело к травмам у как минимум десяти человек за период с конца 2021 по ноябрь 2025 года.
Эксперты также предостерегают от слепого доверия к ИИ в образовательной сфере, подчеркивают Известия. Директор Института исследований интернета Карен Казарян отмечает, что нейросети демонстрируют склонность к ошибкам при проверке заданий, что ставит под сомнение их пригодность для этой задачи.
