Понимание последнего законодательства о генерирующем ИИ в Калифорнии: последствия для разработчиков ИИ и потребителей ИИ

Губернатор Калифорнии Гэвин Ньюсом недавно подписал несколько законопроектов, которые переопределяют подход штата к регулированию генеративного искусственного интеллекта (GenAI). Эти законопроекты имеют существенные последствия как для разработчиков ИИ и компаний, внедряющих ИИ, так и для потребителей.
Хотя эти законы действуют на уровне штата, они, вероятно, окажут более широкое влияние из-за влияния Калифорнии на технологии и политику. Будучи домом для технологических гигантов, таких как Google, OpenAI и Meta, Калифорния часто задает отраслевые стандарты, формирующие глобальные практики.
В этой статье разобраны ключевые детали каждого из этих законопроектов, кого они затрагивают и какие последствия могут иметь для будущего ИИ.
Законопроекты, влияющие на разработчиков ИИ
AB 2013 — Прозрачность данных для обучения ИИ
Требует от всех разработчиков систем или сервисов генеративного искусственного интеллекта (GenAI), выпущенных 1 января 2022 года или позже, независимо от размера компании или проекта, публично раскрыть подробную информацию о данных, использованных для обучения их моделей ИИ, к 1 января 2026 года.
Разработчики должны размещать на своих сайтах исчерпывающую документацию, включая:
Сводки использованных наборов данных.
Источники данных и их владельцев.
Типы данных и их релевантность назначению ИИ.
Сведения о защите авторским правом, товарными знаками или патентами.
Информацию о включенных персональных или потребительских данных.
Использование синтетических данных.
Однако в законопроекте предусмотрены конкретные исключения, когда эти требования не применяются:
Цели безопасности и целостности: системы GenAI, разработанные исключительно для поддержания безопасности и целостности информационных систем.
Эксплуатация воздушных судов: системы, используемые для управления воздушными судами в национальной системе воздушного пространства.
Национальная безопасность или оборона: ИИ, разработанный исключительно для целей национальной безопасности или обороны и доступный только федеральному правительству или его подрядчикам.
Ключевые выводы:
Если вы разработчик или участник проекта, который выпустил в Калифорнии систему или сервис генеративного ИИ после 1 января 2022 года, вы обязаны соблюдать требования AB 2013 по прозрачности, если только ваша система не подпадает под перечисленные выше исключения. Хотя AB 2013 направлен на повышение прозрачности и этичности практик разработки ИИ, многие компании неохотно раскрывают свои обучающие данные из-за конкурентных и юридических рисков. Эта неохота подчеркивает напряжение между регуляторными усилиями по продвижению прозрачности и отраслевыми приоритетами по защите проприетарной информации и минимизации правовых рисков.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2013
SB 942 — Раскрытие происхождения и инструменты идентификации
Обязывает поставщиков систем GenAI включать идентифицируемые раскрытия в контент, созданный ИИ, и предоставлять бесплатные инструменты обнаружения ИИ для проверки такого контента.
Поставщики должны:
Включать явные и скрытые раскрытия в контент, созданный ИИ.
Предоставлять бесплатный, публично доступный инструмент обнаружения ИИ.
Отзывать лицензии у третьих сторон, удаляющих обязательные раскрытия.
Явные раскрытия — это четкие, видимые метки или слышимые заявления, напрямую указывающие, что контент создан ИИ, делая это понятным для среднего пользователя. Скрытые раскрытия — это метаданные, встроенные в контент, содержащие такие сведения, как имя поставщика ИИ, версия и дата создания, и обнаруживаемые с помощью инструментов выявления ИИ. Эти раскрытия направлены на то, чтобы помочь пользователям лучше распознавать материалы, созданные ИИ, снизить риск введения в заблуждение и повысить доверие к использованию генеративного ИИ.
Ключевые выводы:
SB 942 требует, чтобы системы генеративного ИИ встраивали в свои результаты как явные, так и скрытые раскрытия для обеспечения прозрачности. Это означает, что любой контент, произведенный ИИ, должен включать видимые метки и метаданные, указывающие, что он создан ИИ. Хотя в идеале эти раскрытия должны сохраняться при копировании или распространении контента, законодательство фокусируется на ответственности поставщика ИИ включать их в момент генерации. После того как пользователь вручную изменяет или переносит контент, сохранение этих раскрытий может быть менее обеспечиваемым, в зависимости от типа контента.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB942
Законопроекты, влияющие на компании, внедряющие ИИ
AB 1008 — ИИ и Калифорнийский закон о конфиденциальности потребителей (CCPA)
Вносит поправки в Калифорнийский закон о конфиденциальности потребителей (CCPA) — закон штата, предназначенный для усиления прав на конфиденциальность и защиты потребителей, — чтобы уточнить, что персональная информация включает данные в физическом, цифровом и абстрактном форматах, включая системы ИИ, способные выдавать персональную информацию.
Законопроект расширяет определения, специально включая:
Персональную информацию во всех форматах.
Чувствительную персональную информацию, такую как нейронные данные.
Обязательства бизнеса соблюдать обновленные стандарты данных.
Это означает, что разработчики ИИ должны обрабатывать всю персональную информацию — включая данные в физическом, цифровом или абстрактном форматах, обрабатываемые или генерируемые системами ИИ, — в полном соответствии с Калифорнийским законом о конфиденциальности потребителей (CCPA). Это включает обновление политик конфиденциальности для прозрачного раскрытия того, как персональные данные собираются, используются и передаются; получение явного согласия от лиц перед сбором их данных; предоставление четких механизмов для реализации потребителями их прав на доступ, удаление или отказ от продажи их персональной информации; и внедрение надежных мер безопасности для защиты этих данных.
Разработчики также должны гарантировать, что их системы ИИ непреднамеренно не выдают и не неправомерно используют персональную информацию, а любые обучающие данные получаются и обрабатываются законно и этично.
Ключевые выводы:
Разработчики ИИ должны привести свои практики в соответствие с AB 1008, обеспечив, чтобы вся персональная информация — включая данные, обрабатываемые или выдаваемые системами ИИ, — обрабатывалась в соответствии с CCPA. Это включает обновление политик конфиденциальности для прозрачности, получение надлежащего согласия на сбор данных, уважение прав потребителей на доступ, удаление или отказ от продажи их персональной информации, внедрение надежных мер безопасности для защиты персональных данных и обеспечение того, чтобы системы ИИ непреднамеренно не неправомерно использовали и не раскрывали персональную информацию.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB1008
AB 2602 — Согласие и цифровые реплики
Обеспечивает, что положения договоров, предусматривающие использование цифровых реплик голоса или внешности человека, подлежат исполнению только при явном и информированном согласии.
Согласно законопроекту, договоры не подлежат исполнению, если они:
Разрешают использование цифровых реплик без указания конкретных предполагаемых способов использования.
Были согласованы без юридического представительства человека.
Позволяют заменять работу человека цифровой репликой без надлежащего согласия.
Ключевые выводы:
Для соблюдения AB 2602 разработчики ИИ и компании должны обеспечить, чтобы договоры, включающие использование цифровых реплик голоса или внешности человека, содержали четкое и конкретное описание предполагаемых способов использования реплики. Кроме того, они должны подтверждать, что у людей есть юридическое представительство во время переговоров по договору для подтверждения действительности согласия. Невыполнение этих требований делает положения договора неисполнимыми, тем самым защищая людей от несанкционированного или неэтичного использования их цифровой идентичности.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2602
AB 3030 — GenAI в коммуникациях в сфере здравоохранения
AB 3030 требует от поставщиков медицинских услуг, использующих генеративный ИИ (GenAI) для общения с пациентами, включать четкие оговорки и предоставлять контактную информацию для связи с человеком-медработником. В частности, созданные ИИ письменные, аудио- и видеосообщения должны явно указывать на их происхождение от ИИ:
письменные материалы должны содержать оговорки в начале,
аудиовзаимодействия требуют устных оговорок и в начале, и в конце,
а видеоконтент должен отображать оговорки на протяжении всего материала.
Кроме того, пациентам должны быть предоставлены инструкции о том, как связаться с медицинским работником-человеком для получения дополнительной помощи. Исключение применяется, если лицензированный специалист-человек проверяет и лично передает созданное ИИ сообщение.
Ключевые выводы:
Поставщикам медицинских услуг необходимо обновить протоколы коммуникации, чтобы материалы для пациентов, созданные ИИ, включали требуемые оговорки и контактную информацию человека. Поставщикам также следует установить процесс, при котором лицензированные специалисты-человеки проверяют ИИ-коммуникации, когда это необходимо для обхода требования об оговорке. Персонал должен пройти обучение по этим обновленным процедурам, а также должны проводиться регулярные аудиты соблюдения, чтобы проверять выполнение AB 3030, обеспечивая прозрачность и доверие пациентов.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB3030
SB 896 — Использование штатом и анализ рисков GenAI
SB 896, Закон об ответственности в сфере генеративного искусственного интеллекта, устанавливает требования для государственных агентств Калифорнии, использующих генеративный ИИ (GenAI), с целью обеспечения прозрачности, конфиденциальности, справедливости и подотчетности.
Государственные агентства должны:
Проводить ежегодный анализ рисков угроз GenAI и отчитываться о результатах перед Законодательным собранием.
Включать оговорки в сообщения, созданные ИИ, обеспечивая их ясность и заметность, и предоставлять контактную информацию представителя-человека.
Продвигать ответственное использование ИИ, защищая конфиденциальность, минимизируя предвзятость и обеспечивая прозрачность своих систем ИИ.
Развивать кадровый потенциал, обучая персонал ролям, связанным с ИИ, с акцентом на этику и конфиденциальность.
Ключевые выводы:
SB 896 направлен на укрепление общественного доверия к технологиям ИИ, что необходимо для устойчивого роста экосистемы ИИ. Обеспечивая прозрачность, конфиденциальность и подотчетность в ИИ-коммуникациях, используемых государственными агентствами, закон создает прецедент ответственного использования ИИ. Это помогает гарантировать, что ИИ воспринимается как надежный инструмент, что может повысить доверие потребителей и стимулировать более широкое внедрение, в конечном итоге поддерживая рост и принятие отрасли.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB896
Законопроекты, влияющие на потребителей, использующих ИИ
AB 2355 и AB 2655 — ИИ в политической рекламе
Эти законопроекты вводят регулирование использования ИИ и дипфейк-контента в политической рекламе и материалах, связанных с выборами, чтобы продвигать прозрачность и добросовестность.
В частности:
AB 2355: Требует, чтобы политическая реклама, использующая созданный или измененный ИИ контент, содержала четкие раскрытия о том, что она была создана с использованием ИИ.
AB 2655: Обязывает онлайн-платформы блокировать или маркировать вводящий в заблуждение контент, связанный с выборами, и предоставляет механизмы для сообщения о таком контенте.
Ключевые выводы:
Эти законопроекты создают важный прецедент для защиты целостности демократических процессов по мере того, как возможности генеративного ИИ (genAI) продолжают развиваться, и становится все сложнее отличать факты от вымысла. Требуя четких раскрытий для политической рекламы, созданной ИИ (AB 2355), и обязывая платформы маркировать или удалять вводящий в заблуждение выборный контент (AB 2655), эти законы стремятся ограничить влияние манипулированных медиа и дипфейков. Эта регуляторная рамка необходима для обеспечения прозрачности политической коммуникации и поддержания доверия избирателей в эпоху, когда контент, созданный ИИ, может легко вводить в заблуждение.
Текст AB 2355:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2355
Текст AB 2655:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB2655
AB 1836 — Цифровые реплики умерших лиц
AB 1836 запрещает несанкционированное коммерческое использование голоса или внешности умершего человека через цифровые реплики без предварительного согласия правообладателя. Этот закон нацелен на лиц и организации, которые производят, распространяют или иным образом делают доступными такие цифровые реплики в коммерческих целях без разрешения. Устанавливая значительные компенсации ущерба для нарушителей, AB 1836 стремится защитить наследие и права умерших людей и предотвратить эксплуатацию через контент, созданный ИИ.
Ключевые выводы:
По мере дальнейшего развития технологий ИИ воспроизведение чьего-либо голоса или внешности станет все более доступным, что вызывает опасения по поводу злоупотреблений и эксплуатации. AB 1836 — это шаг вперед в решении этих этических вызовов путем установления правовых требований для коммерческого использования цифровых реплик умерших лиц. Требуя явного согласия правообладателей и предусматривая значительные санкции за несанкционированное использование, законопроект помогает защищать личную идентичность от эксплуатации и создает прецедент ответственного использования генеративного ИИ. Этот закон способствует формированию более этичной рамки разработки ИИ, обеспечивая, что по мере развития технологий репликации права и наследие людей остаются защищенными.
Текст законопроекта:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB1836
SB 926 и SB 981 — Защита от откровенного контента, созданного ИИ
SB 926 и SB 981 — это законодательные меры, направленные на ограничение вредоносного и несанкционированного использования генеративного ИИ для создания откровенного контента без согласия. Эти законы рассматривают злоупотребление технологиями дипфейков и возлагают на создателей и платформы ответственность за их роль в защите конфиденциальности и цифровой идентичности людей.
SB 926 криминализирует умышленное создание и распространение реалистичных, созданных ИИ интимных изображений людей без их согласия. Это включает несогласованные дипфейки, изображающие человека в сексуально откровенной форме, с санкциями, призванными сдерживать такие злоупотребления.
SB 981 требует от платформ социальных сетей предоставлять механизмы для сообщения пользователями о случаях сексуально откровенной кражи цифровой идентичности. Платформы должны оперативно расследовать и удалять такой контент, предоставляя жертвам возможности для быстрого восстановления нарушенных прав.
Ключевые выводы:
По мере того как генеративный ИИ становится все более доступным, потенциал злоупотреблений — например, создания несогласованного откровенного контента — значительно возрастает. SB 926 и SB 981 устанавливают важнейшие меры защиты, криминализируя несанкционированный интимный контент, созданный ИИ, и возлагая на платформы ответственность за оперативное удаление вредоносных материалов. Эти меры подчеркивают важность этичного использования ИИ, акцентируя внимание на конфиденциальности, согласии и необходимости ответственного внедрения технологий для защиты людей от эмоционального и репутационного вреда по мере дальнейшего развития genAI.
Текст SB 926:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB926
Текст SB 981:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB981
AB 1831 и SB 1381 — Расширение статутов о CSAM
AB 1831 и SB 1381 — это законодательные меры, расширяющие определение материалов сексуального насилия над детьми (CSAM), включая контент, созданный или измененный с помощью искусственного интеллекта (AI) или цифровых средств и изображающий несовершеннолетних. Эти законопроекты делают незаконным производство, распространение или хранение созданного ИИ CSAM, предусматривая суровые наказания, включая обвинения в тяжких преступлениях и лишение свободы. Законодательство направлено на устранение возникающей угрозы, связанной с передовыми технологиями, способными создавать реалистичные, но искусственные изображения несовершеннолетних в незаконном контенте, закрывая ранее существовавшие правовые лазейки.
Ключевые выводы:
AB 1831 и SB 1381 имеют жизненно важное значение для поддержания этических стандартов и защиты уязвимых групп населения по мере того, как технологии ИИ становятся более совершенными и доступными. Хотя разработчики ИИ не являются прямой целью AB 1831 и SB 1381, им следует проактивно внедрять меры, предотвращающие использование их технологий для производства CSAM, созданного ИИ. Тем самым они помогают бороться с эксплуатацией несовершеннолетних, соответствовать этическим стандартам и снижать потенциальные юридические и репутационные риски.
Текст AB 1831:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240AB1831
Текст SB 1381:
https://leginfo.legislature.ca.gov/faces/billNavClient.xhtml?bill_id=202320240SB1381
Последствия для будущего ИИ
Законодательство Калифорнии в области GenAI задает новый стандарт ответственного управления ИИ. Подчеркивая прозрачность, конфиденциальность и этичное использование, эти законы стремятся снизить риски, не подавляя инновации. Они обеспечивают соответствие разработки ИИ общественным ценностям, защищая людей и укрепляя доверие к ИИ-технологиям. По мере того как ИИ продолжает интегрироваться в повседневную жизнь, такие регуляторные рамки обеспечивают, чтобы ИИ оставался позитивной силой технологического прогресса.
Чтобы оставаться в авангарде этичной разработки ИИ и использовать весь потенциал ИИ, крайне важно понимать последствия регуляторных изменений, таких как законы Калифорнии о GenAI. В Sahara AI мы привержены созданию децентрализованной, прозрачной и ориентированной на конфиденциальность ИИ-экосистемы, обеспечивающей безопасность, справедливость и доступность для всех пользователей. Присоединяйтесь к нашему списку ожидания, чтобы быть в курсе последних достижений и стать частью движения, формирующего будущее этичного ИИ.



