Еврокомиссия предложила новые правила использования искусственного интеллекта, ограничив его внедрение в сферах, где он может стать причиной какого-либо вреда или опасности для общества. Эти правила будут применяться во всех государствах-членах ЕС на основе оценки возможного риска.
Неприемлемый риск
Системы искусственного интеллекта, которые считаются явной угрозой безопасности, средствам к существованию и правам людей, будут запрещены. В эту категорию входят программы, манипулирующие поведением человека, ограничивающие свободу воли пользователей (например, игрушки, поощряющие опасное поведение), а также системы, которые позволяют правительствам проводить «социальную оценку».
Высокий риск
К этой категории относятся системы искусственного интеллекта, которые будут использоваться в следующих сферах:
- Критические инфраструктуры, которые могут поставить под угрозу жизнь и здоровье граждан. К таким сферам можно отнести транспорт;
- Образовательная или профессиональная подготовка, которая может определять доступ к образованию и получению профессионального навыка в чьей-либо жизни. Например, при оценке экзаменов;
- Компоненты безопасности продуктов. Будет ограничено применение искусственного интеллекта в роботизированной хирургии;
- Управление работниками и доступ к самостоятельной занятости. Например, использование программного обеспечения для сортировки резюме для процедур найма;
- Основные частные и государственные услуги. В качестве примера приводится кредитный скоринг;
- Правоохранительные органы. При оценке надёжности доказательств ИИ может ошибиться, нарушив основные права людей;
- Управление миграцией, убежищем и пограничным контролем. Например, при проверке подлинности документов;
- Отправление правосудия и демократические процессы. В Еврокомиссии отметили ограниченность искусственного интеллекта при применении закона к конкретному набору фактов.
В частности, регулятор также предложил ограничить использование распознавания лиц в общественных местах, кроме особых случаев. Например, при поиске пропавших детей или преступников и предотвращения терактов.
Согласно предложению Еврокомиссии, чтобы попасть на рынок, системы искусственного интеллекта с высоким уровнем риска должны соответствовать требованиям качества, надежности, безопасности и точности. Кроме того, они должны сопровождаться подробной документацией, содержащей всю информацию о системе и её назначении, а также чёткой и адекватной информацией для пользователя.
Ограниченный риск
Системы искусственного интеллекта с конкретными обязательствами по обеспечению прозрачности. К ним относятся, например, чат-боты. При их использовании пользователи должны знать, что они взаимодействуют с машиной.
Минимальный риск
В эту категорию попадает подавляющее большинство систем ИИ, например, видеоигры с поддержкой AI или спам-фильтры. Их Еврокомиссия предлагает никак не регулировать, поскольку они практически не несут никакой опасности.
Как пишет The Wall Street Journal, новые правила сделают разработку ИИ в Европе непомерно дорогой или даже технологически невозможной. Таким образом, США и Китай будут развивать технологию, пока ЕС ограничивает свои собственные стартапы. Тем не менее, предложение Еврокомиссии ещё должно быть одобрено в Европейском совете и Европарламенте, а это может занять целые годы.
Еще больше новостей |