Ботов заставят представляться
Роспотребнадзор готовит предложения по регулированию ИИ и планирует учесть нормы принятого весной законодательства ЕС. В ведомстве, в частности, хотят нормативно закрепить возможность пользователя контролировать и ограничивать применение компаниями ИИ-решения, а также обязать бизнес информировать граждан о том, что они общаются с ботами. Участники рынка настаивают на саморегулировании и считают, что жесткие ограничения, как в ЕС, осложнят развитие ИИ.
Роспотребнадзор подготовит предложения для законодательного регулирования в части защиты прав потребителей ИИ-решений, рассказала “Ъ” замначальника управления федерального государственного надзора в области защиты прав потребителей ведомства Марина Кочнева. Для этого, по ее словам, будет изучен закон ЕС о регулировании ИИ. В нем, в частности, «прописана возможность нажать кнопку «стоп», сохранить за человеком возможности контроля применения ИИ», отметила госпожа Кочнева на конференции «Партнерство БРИКС по развитию цифровой экономики» 24 июля.
Представитель Роспотребнадзора также подчеркнула, что в законодательстве РФ должна быть закреплена необходимость информирования пользователей, что они имеют дело с ИИ, в договоре, телефонном разговоре или переписке. Также должно быть определено, кто и в каких случаях должен нести ответственность, если при использовании ИИ нарушаются права потребителя, добавила Марина Кочнева. Также будут учтены жалобы потребителей, отметила она: «Жалобы в основном связаны с неспособностью искусственного интеллекта решить проблему. Люди требуют внесения изменений в законы, чтобы ИИ использовался дозированно, и если проблема потребителя не решена за определенное время, его переключали на оператора». Роспотребнадзор отказался от дополнительных комментариев “Ъ”.
Закон ЕС о регулировании ИИ был утвержден 21 мая и начнет действовать через два года. Приоритетом в нем является безопасность при использовании нейросетей, прозрачность и нахождение ИИ-решений под контролем человека. Закон выделяет четыре категории систем в зависимости от уровня риска для людей. В России с прошлого года «Единая Россия» работает над законопроектом, который призван определить ответственность разработчиков и исключить случаи использования искусственного интеллекта в мошеннических целях. 8 июля президент РФ Владимир Путин подписал закон, по которому работающие в экспериментальном правовом режиме разработчики технологий ИИ должны страховать ответственность за возможный вред от применения технологии.
Директор направления «Цифровая трансформация отраслей» АНО «Цифровая экономика» Алексей Сидорюк считает, что «если заранее все зарегулировать, технология не сможет развиваться». «ЕС отстает по темпам развития ИИ от США, Китая и даже России»,— отметил господин Сидорюк на конференции.
Объем российского рынка ИИ-ботов составляет около 5 млрд руб., говорит директор по развитию веб-технологий Artezio Сергей Матусевич. По его прогнозу, в 2026 году он превысит 9 млрд руб. В «большую тройку» языковых моделей, по словам Алексея Сидорюка, входят Yandex GPT, Gigachat «Сбера» и МТС Cotype.
Спрос на ботов в РФ за последние годы вырос в разы, однако внедрение сдерживают ограничения развития технологии, говорит руководитель интеллектуального анализа «Инфосистемы джет» Антон Чикин. Пока нет точности при анализе длинных цепочек фраз или в ситуациях, когда нужно обладать экспертизой в какой-либо области. Активное внедрение регламентов усложнило бы разработки в сфере ИИ, считает господин Чикин.
Любые ограничительные инициативы выглядят попыткой остановить развитие рынка, поскольку распространяются на область, регулируемую им самостоятельно, говорит руководитель лаборатории инноваций «Норбит» (входит в группу «Ланит»). Дмитрий Демидов. Если клиентам не нравится общаться с ботами, они могут переходить к другим компаниям, где отвечают люди, но при этом выше цены на услуги или продукты, считает он. Управляющий партнер Seven Hills Legal Юлия Гуриева полагает, что крупные российские IT-компании дорожат репутацией, строя свои экосистемы, и всегда могут договориться о соблюдении правил на уровне этики.