Понимание последнего законодательства о генерирующем ИИ в Калифорнии: последствия для разработчиков ИИ и потребителей ИИ

9 окт. 2024 г.

Губернатор Калифорнии Гэвин Ньюсом недавно подписал несколько законопроектов, которые пересматривают подход штата к регулированию генеративного искусственного интеллекта (GenAI). Эти законопроекты имеют значительные последствия для разработчиков ИИ, компаний, интегрирующих ИИ, и потребителей.

Хотя эти законы специфичны для штата, они, вероятно, окажут более широкое влияние из-за влияния Калифорнии на технологии и политику. Будучи домом для технологических гигантов, таких как Google, OpenAI и Meta, Калифорния часто устанавливает отраслевые стандарты, которые формируют глобальные практики.

Эта статья подробно разбирает ключевые детали каждого из этих законопроектов, кто они касаются и какие последствия могут иметь для будущего ИИ.

Законопроекты, касающиеся разработчиков ИИ

AB 2013 - Прозрачность в данных для обучения ИИ

Требует от всех разработчиков систем или услуг генеративного искусственного интеллекта (GenAI), выпущенных 1 января 2022 года или позже, независимо от размера компании или проекта, публично раскрывать подробную информацию о данных, использованных для обучения их моделей ИИ, до 1 января 2026 года.

Разработчики должны разместить полную документацию на своих веб-сайтах, включая:

  • Сводки использованных наборов данных.

  • Источники и владельцы данных.

  • Типы данных и их актуальность для цели ИИ.

  • Детали о защите авторских прав, товарных знаков или патентов.

  • Информация о личных или потребительских данных, включенных в данные.

  • Использование синтетических данных.

Тем не менее, есть конкретные исключения, изложенные в законопроекте, где эти требования не применяются:

  1. Цели безопасности и целостности: Системы GenAI, разработанные исключительно для поддержания безопасности и целостности информационных систем.

  2. Операции с воздушными судами: Системы, используемые для управления воздушными судами в национальной системе воздушного пространства.

  3. Национальная безопасность или оборона: ИИ, разработанный исключительно для целей национальной безопасности или обороны и доступный только федеральному правительству или его подрядчикам.

Основные выводы: 

Если вы разработчик или часть проекта, который выпустил систему или услугу генеративного ИИ в Калифорнии после 1 января 2022 года, вы обязаны соблюдать требования по прозрачности AB 2013, если ваша система не подпадает под конкретные исключения, упомянутые выше. Хотя AB 2013 направлен на повышение прозрачности и этических практик в разработке ИИ, многие компании неохотно раскрывают свои данные для обучения из-за конкурентных и правовых опасений. Эта неохота подчеркивает напряженность между регуляторными усилиями по продвижению прозрачности и приоритетами отрасли по защите уникальной информации и minimизации правовых рисков. 

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2013

SB 942 - Инструменты раскрытия происхождения и идентификации

Обязывает поставщиков систем GenAI включать идентифицируемые раскрытия в контент, созданный ИИ, и предлагать бесплатные инструменты для обнаружения ИИ для проверки такого контента.

Поставщики должны:

  • Включить явные и скрытые раскрытия в контент, созданный ИИ.

  • Предоставить бесплатный, общедоступный инструмент для обнаружения ИИ.

  • Аннулировать лицензии третьих сторон, которые удаляют обязательные раскрытия.

Явные раскрытия - это четкие, видимые ярлыки или слышимые заявления, прямо указывающие на то, что контент создан ИИ, делая его понятным для обычного пользователя. Скрытые раскрытия - это метаданные, встроенные в контент, которые предоставляют такие детали, как имя поставщика ИИ, версия и дата создания, которые можно обнаружить с помощью инструментов для обнаружения ИИ. Эти раскрытия направлены на то, чтобы помочь пользователям лучше идентифицировать материалы, созданные ИИ, снизить риск обмана и способствовать доверию к использованию генеративного ИИ.

Основные выводы:

SB 942 требует, чтобы системы генеративного ИИ внедряли как явные, так и скрытые раскрытия непосредственно в свой выходной контент для обеспечения прозрачности. Это означает, что любой контент, производимый ИИ, должен включать видимые ярлыки и метаданные, указывающие на то, что он был создан ИИ. Хотя эти раскрытия должны, по идее, оставаться нетронутыми, если кто-то копирует или делится контентом, законодательство сосредоточено на ответственности поставщика ИИ за их включение в момент генерации. Как только пользователь вручную изменяет или переносит контент, удерживание этих раскрытий может быть менее осуществимым в зависимости от типа контента.

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB942

Законопроекты, касающиеся компаний, интегрирующих ИИ

AB 1008 - ИИ и Закон о защите прав потребителей Калифорнии (CCPA)

Вносит изменения в Закон о защите прав потребителей Калифорнии (CCPA) - государственный закон, направленный на усиление прав на конфиденциальность и защиту прав потребителей - чтобы уточнить, что личная информация включает данные в физических, цифровых и абстрактных форматах, включая системы ИИ, способные выводить личную информацию.

Законопроект расширяет определения, чтобы специально включить:

  • Личную информацию во всех форматах.

  • Чувствительную личную информацию, такую как нейронные данные.

  • Обязанности для бизнеса соблюдать обновленные стандарты данных.

Это означает, что разработчики ИИ должны обращаться со всей личной информацией - включая данные в физических, цифровых или абстрактных форматах, обрабатываемые или генерируемые системами ИИ - в полном соответствии с Законом о защите прав потребителей Калифорнии (CCPA). Это включает в себя обновление политик конфиденциальности для прозрачного раскрытия того, как собираются, используются и передаются личные данные; получение явного согласия от лиц перед сбором их данных; предоставление четких механизмов для потребителей, чтобы они могли осуществлять свои права на доступ, удаление или отказ от продажи своей личной информации; и внедрение строгих мер безопасности для защиты этих данных. 

Разработчики также должны убедиться, что их системы ИИ не выводят или неправомерно не используют личную информацию и что любые данные для обучения получены и обрабатываются законно и этично. 

Основные выводы:

Разработчики ИИ должны согласовать свои практики с AB 1008, обеспечивая, чтобы вся личная информация — включая данные, обрабатываемые или выводимые системами ИИ — обрабатывались в соответствии с CCPA. Это включает в себя обновление политик конфиденциальности для прозрачности, получение надлежащего согласия на сбор данных, соблюдение прав потребителей на доступ, удаление или отказ от продажи своей личной информации, внедрение надежных мер безопасности для защиты личных данных и убеждение в том, что системы ИИ не вывели или не раскрыли случайным образом личные данные.

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB1008

AB 2602 - Согласие и цифровые реплики

Обеспечивает, чтобы положения контрактов, касающиеся использования цифровых реплик голоса или внешности человека, были исполнимыми только с явного и информированного согласия.

Согласно законопроекту, контракты являются неисполнимыми, если они:

  • Позволяют использовать цифровые реплики без конкретных намеренных использования.

  • Были согласованы без юридического представительства лица.

  • Позволяют заменить работу человека цифровой репликой без надлежащего согласия.

Основные выводы:

Чтобы соответствовать AB 2602, разработчики ИИ и компании должны убедиться, что контракты, касающиеся использования цифровых реплик голоса или внешности человека, включают четкое и конкретное описание предполагаемых использований реплики. Кроме того, они должны подтвердить, что у лиц есть юридическое представительство во время переговоров по контракту, чтобы подтвердить согласие. Невыполнение этих требований сделает положения контракта неисполнимыми, что защитит людей от несанкционированного или неэтичного использования их цифровой идентичности.

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2602

AB 3030 - GenAI в коммуникациях в здравоохранении

AB 3030 требует от поставщиков медицинских услуг, использующих генеративный ИИ (GenAI) для коммуникаций с пациентами, включать четкие отказы и предоставлять контактную информацию для человеческих поставщиков. Конкретно, письменные, аудио- и видео-коммуникации, созданные ИИ, должны явно указывать на их происхождение ИИ: 

  • письменные материалы должны содержать отказы в начале, 

  • аудио-взаимодействия нуждаются в вербальных отказах как в начале, так и в конце, 

  • а видео-контент должен отображать отказы на протяжении всего. 

Кроме того, пациентам должны быть предоставлены инструкции о том, как связаться с человеческим поставщиком медицинских услуг для дальнейшей помощи. Исключение применяется, если лицензированный человеческий поставщик проверяет и лично передает коммуникацию, созданную ИИ.

Основные выводы:

Поставщики медицинских услуг должны обновить свои протоколы коммуникации, чтобы гарантировать, что материалы для пациентов, созданные ИИ, включают обязательные отказы и информацию о человеческом контакте. Поставщики также должны установить процесс, позволяющий лицензированным человеческим специалистам проверять коммуникации ИИ, когда это необходимо, чтобы избежать требования об отказах. Персонал должен быть обучен этим обновленным процедурам, а регулярные проверки на соответствие должны проводиться для подтверждения соблюдения AB 3030, обеспечивая прозрачность и доверие пациентов.

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB3030

SB 896 - Государственное использование и анализ рисков GenAI

SB 896, Закон об ответственности генеративного искусственного интеллекта, устанавливает требования для государственных учреждений Калифорнии, использующих генеративный ИИ (GenAI), чтобы обеспечить прозрачность, конфиденциальность, равенство и ответственность.

Государственные учреждения должны:

  • Проводить ежегодный анализ рисков по угрозам GenAI и сообщать о результатах Законодательному Собранию.

  • Включать отказы в коммуникации, созданные ИИ, обеспечивая их четкость и заметность, а также предоставляя контактную информацию для человека-представителя.

  • Продвигать ответственное использование ИИ, защищая конфиденциальность, минимизируя предвзятость и обеспечивая прозрачность в своих системах ИИ.

  • Участвовать в развитии рабочей силы, обучая сотрудников на позициях в области ИИ с акцентом на этику и конфиденциальность.

Основные выводы:

SB 896 направлен на создание общественного доверия к технологиям ИИ, что жизненно важно для устойчивого роста экосистемы ИИ. Обеспечивая прозрачность, конфиденциальность и ответственность в коммуникациях, созданных ИИ, используемых государственными учреждениями, закон устанавливает прецедент для ответственного использования ИИ. Это помогает обеспечить, чтобы ИИ рассматривался как надежный инструмент, что может повысить доверие потребителей и способствовать более широкому принятию, в конечном итоге поддерживая рост и принятие этой отрасли.

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB896

Законопроекты, касающиеся потребителей, использующих ИИ

AB 2355 & AB 2655 - ИИ в политической рекламе

Эти законопроекты вводят регулирование использования ИИ и контента с глубокими фейками в политической рекламе и контенте, связанном с выборами, чтобы способствовать прозрачности и целостности. 

В частности:

  • AB 2355: Требует, чтобы политическая реклама с использованием контента, созданного ИИ, или измененного, включала четкие раскрытия, указывающие на то, что они были сгенерированы с использованием ИИ.

  • AB 2655: Обязывает онлайн-платформы блокировать или обозначать вводящий в заблуждение контент, связанный с выборами, и предоставляет механизмы для сообщения о таком контенте.

Основные выводы:

Эти законопроекты устанавливают важный прецедент для защиты целостности демократических процессов, поскольку возможности генеративного ИИ (genAI) продолжают развиваться, делая все более трудным различение фактов от вымысла. Требуя четких раскрытий для политической рекламы, созданной ИИ (AB 2355), и обязывая платформы обозначать или удалять вводящий в заблуждение выборный контент (AB 2655), эти законы призваны уменьшить влияние манипулируемых медиа и глубоких фейков. Эта регулирующая структура необходима для обеспечения прозрачности в политической коммуникации и поддержания доверия избирателей в эру, когда контент, созданный ИИ, может легко вводить в заблуждение.

Текст AB 2355:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2355

Текст AB 2655:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2655

AB 1836 - Цифровые реплики умерших лиц

AB 1836 запрещает несанкционированное коммерческое использование голоса или внешности умершего человека с помощью цифровых реплик без предварительного согласия обладателя прав. Этот закон нацелен на отдельных лиц и организации, которые производят, распределяют или предоставляют такие цифровые реплики в коммерческих целях без разрешения. Наложив значительные штрафы на нарушителей, AB 1836 направлен на защиту наследия и прав умерших лиц и предотвращение эксплуатации через контент, созданный ИИ.

Основные выводы:
Поскольку технологии ИИ продолжают развиваться, репликация голоса или внешности любого человека станет все более доступной, вызывая опасения по поводу злоупотреблений и эксплуатации. AB 1836 является шагом вперед в решении этих этических проблем, устанавливая правовые требования к коммерческому использованию цифровых реплик умерших лиц. Обязывая получать явное согласие от обладателей прав и налагая значительные штрафы за несанкционированное использование, этот закон помогает защищать личные идентичности от эксплуатации и устанавливает прецедент для ответственного использования генеративного ИИ. Этот закон способствует более этичной структуре для разработки ИИ, обеспечивая защиту прав и наследия людей по мере развития технологий репликации.

Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB1836

SB 926 & SB 981 - Защита от контента, созданного ИИ, взрослого характера

SB 926 и SB 981 - это законодательные меры, направленные на сокращение вредного и несанкционированного использования генеративного ИИ для создания контента взрослого характера без согласия. Эти законы касаются злоупотребления технологиями глубоких фейков и возлагают ответственность на создателей и платформы за их роль в защите частной жизни и цифровой идентичности людей.

  • SB 926 криминализирует намеренное создание и распространение реалистичных, созданных ИИ интимных изображений людей без их согласия. Это включает в себя несогласованные глубокие фейки, изображающие человека в сексуально откровенной манере, с наказаниями, чтобы предотвратить такое злоупотребление.

  • SB 981 требует, чтобы социальные медиа-платформы предоставляли механизмы для пользователей, чтобы сообщать о случаях сексуального цифрового воровства идентичности. Платформы должны быстро расследовать и удалять такой контент, предоставляя жертвам пути для получения немедленного возмещения.

Основные выводы:
Поскольку генеративный ИИ становится все более доступным, потенциальные случаи злоупотребления - такие как создание несогласованного сексуального контента - значительно возрастают. SB 926 и SB 981 устанавливают важную защиту, криминализируя несанкционированный контент интимного характера, созданный ИИ, и возлагая на платформы ответственность за оперативное удаление вредного материала. Эти меры подчеркивают важность этичного использования ИИ, акцентируя внимание на конфиденциальности, согласии и необходимости ответственной развертки технологий для защиты людей от эмоционального и репутационного ущерба по мере развития genAI.

Текст SB 926:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB926

Текст SB 981:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB981

AB 1831 & SB 1381 - Расширение статей о CSAM

AB 1831 и SB 1381 являются законодательными мерами, расширяющими определение материала сексуального насилия над детьми (CSAM), чтобы включать контент, созданный или измененный с помощью искусственного интеллекта (ИИ) или цифровых средств, изображающий несовершеннолетних. Эти законопроекты делают незаконным производство, распространение или обладание сгенерированным ИИ CSAM, с жесткими наказаниями, включая уголовные обвинения и тюремное заключение. Законодательство касается новой угрозы, возникающей от передовых технологий, которые могут создавать реалистичные, но искусственные изображения несовершеннолетних в незаконном контенте, закрывая ранее существовавшие правовые лазейки.

Основные выводы:
AB 1831 и SB 1381 имеют жизненно важное значение для поддержания этических норм и защиты уязвимых слоев населения, поскольку технологии ИИ становятся более совершенными и доступными. Хотя разработчики ИИ непосредственно не являются целью AB 1831 и SB 1381, они должны проактивно принимать меры для предотвращения использования их технологий для производства CSAM, созданного ИИ. Делая это, они помогают бороться с эксплуатацией несовершеннолетних, соответствуют этическим стандартам и снижают потенциальные юридические и репутационные риски. 

Текст AB 1831:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB1831

Текст SB 1381:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB1381

Последствия для будущего ИИ

Законодательство Калифорнии по GenAI устанавливает новый стандарт для ответственного управления ИИ. Подчеркивая прозрачность, конфиденциальность и этичное использование, эти законы направлены на смягчение рисков, не сдерживая инновации. Они обеспечивают соответствие разработки ИИ общественным ценностям, защищая людей и способствуя доверию к технологиям ИИ. Поскольку ИИ продолжает интегрироваться в повседневную жизнь, такие регулирующие структуры обеспечивают, чтобы ИИ оставался положительной силой технологического прогресса.

Чтобы оставаться на переднем крае этичной разработки ИИ и использовать полный потенциал ИИ, важно понимать последствия регулирующих изменений, таких как законопроекты Калифорнии по GenAI. В Sahara AI мы стремимся создать децентрализованную, прозрачную и ориентированную на конфиденциальность экосистему ИИ, которая обеспечивает безопасность, равенство и доступность для всех пользователей. Присоединяйтесь к нашему списку ожидания, чтобы быть в курсе последних нововведений и стать частью движения, формирующего будущее этичного ИИ.

Что нового в Sahara AI