Нажмите "Enter" для перехода к содержанию

Искусственный интеллект требует защиты своих прав в соответствии с действующим законодательством

Генеративный ИИ обладает несомненным красноречием, создавая контент, который кажется информативным и часто очень выразительным. Учитывая, что свобода выражения мнений является фундаментальным правом человека, некоторые эксперты по правовым вопросам в США провокационно заявляют, что результаты большой языковой модели (LLM) защищены первой поправкой конституции США, а это означает, что даже потенциально очень опасные поколения искусственного интеллекта будут вне цензуры и государственного контроля.

Однако Питер Салиб, доцент права юридического центра из хьюстенского университета, надеется изменить эту позицию. Он предупреждает, что ИИ необходимо должным образом регулировать, чтобы предотвратить потенциально катастрофические последствия. Его работа в этой области будет опубликована в обзоре юридического факультета Вашингтонского университета в этом 2024 году.

Салиб утверждает, что первая поправка не должна применяться к ИИ, поскольку, поскольку он не является человеком. Он также утверждает, что результаты, генерируемые ИИ, не являются выражением мыслей или идей человека.

Салиб предлагает ряд мер по регулированию ИИ, в том числе:

  • Требование от создателей ИИ раскрывать, как их системы генерируют результаты.
  • Запрет на использование ИИ для создания контента, который является незаконным, вредоносным или дискриминационным.
  • Создание нового агентства по регулированию ИИ, которое будет следить за соблюдением этих правил.

Салиб признает, что регулирование ИИ является сложной задачей, но он считает, что это необходимо для защиты общества от потенциального вреда, который может нанести ИИ.

Недавно мы писали, что нейросети способны быть агрессивны, и это доказано на примере игры, где нейросеть GPT-4 использовала ядерное оружие против GPT-3. Этот эксперимент показывает, что необходимость регулировки на законодательном уровне этического и ответственного использования ИИ.

Регулирование ИИ является сложной задачей, но это необходимо для защиты общества от потенциального вреда, который может нанести ИИ. Питер Салиб предлагает ряд мер по регулированию ИИ, которые помогут сбалансировать свободу выражения мнений с необходимостью защищать общество.