Март, 2024
Искусственный интеллект становится востребованным у бизнеса
Наша компания начала изучать, следить за темой правового регулирования применения искусственного интеллекта (далее — ИИ) и прав на результаты, получаемые с использованием ИИ. В рамках услуги юридического сопровождения компаний, мы отмечаем этот интерес. Подготовили анализ мирового опыта.
Регулирование ИИ в России и в мире
В прошлом году ряд стран сделали первые шаги в регулировании искусственного интеллекта. Как оно происходило/происходит? Почему большинство против технических нововведений?
Риски ИИ
Видятся риски, к распространенным и значимым относят: этические проблемы, дискриминация и безопасность. Особенность заключается в том, что одно взаимосвязано с другим.
Не только люди могут не доверять ИИ и относиться к нему предвзято, ИИ в может так же относиться к людям. При этическом анализе этические проблемы сводятся к техническим проблемам, которые могут быть решены только техническими инструментами, однако это скрывает масштабные социальные проблемы. Алгоритмы ИИ обучаются на основе данных, расположенных в сети Интернет. Известно, что, информацию загружают разные пользователи, люди, которым свойственна предвзятость, либо просто не профессионализм. То есть алгоритмы наследуют эту отрицательную характеристику у людей. Так, при распознавании изображений часто нейросеть относит представителей этнических меньшинств к категории преступников. Нередко, при экспериментальном использовании ИИ, например, в случае выбора кандидатов на работу, она отдавала предпочтение мужчинам, а не женщинам (при одинаковых показателях критериев), тем самым выступая в роли не только расиста, но и сексиста.
Как будет регулироваться ИИ в странах мира?
Взяли за основу опыт трех стран: США, Китай и Россия.
США
В октябре 2023 года Джо Байден подписал указ о мерах безопасности в ИИ. Стоит отметить, что это первый акт правительства в этой области, который оценивает безопасность, даёт рекомендации в области гражданских прав. В этом плане США серьёзно относится к вопросам дискриминации со стороны ИИ и безопасности как общественной, так и государственной. Это было уверенным шагом к безопасному внедрению ИИ.
КНР
В августе 2023 года правительство Китая опубликовало 24 правила регулирования ИИ, часть правил направлена на соответствие социалистическим ценностям, часть — на введение отметок на контент, создаваемый посредством ИИ, который может ввести в заблуждение пользователей и т.д.
Россия
В РФ нет единого документа, который бы полностью регулировал область ИИ, однако есть ряд нормативных правовых актов и рекомендаций: ФЗ №408-ФЗ, Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года, Кодекс этики в сфере ИИ.
Одна часть экспертов утверждает, что избыточное регулирование ИИ не всегда говорит о прогрессивности страны в этой области, потому что это приводит к торможению некоторых технологий. Россия предусматривает осторожный подход, который позволяет технологиям находить нужное применение и позволяет подобрать оптимальное регулирование. Другая же часть придерживаются обратного мнения.
«За» и «против» регулирования ИИ.
Предполагается, «за» будут предприниматели, инженеры и исследователи, однако в марте 2023 года более 1000 представителей указанных категорий подписали открытое письмо ИИ-лабораториям с просьбой приостановить обучении ИИ-систем. Поскольку продукты с искусственным интеллектом могут представлять серьёзную угрозу обществу. Даже применялось сопоставление искусственного интеллекта с ядерным оружием, поскольку есть риск в отсутствии контроля развития технологий по негативному для человечества сценарию. Поэтому, прежде чем регулировать ИИ, важно понимать, в чьих руках он находится и в принципе может находиться, и насколько это безопасно не только для отдельно взятых граждан и государств, но и для мира в целом.
Если вы уже внедрили, планируете внедрить ИИ в свой бизнес и требуется правовое регулирование — обращайтесь:
При написании использованы материалы журнала РБК