加利福尼亚州立法者提出法案,以规范有害的AI聊天机器人惯例


在AI聊天机器人立法的新闻发布会上,一名加利福尼亚州参议员站在木制讲台上。他穿着海军西装,白衬衫和栗色的领带,并用认真表现的两个麦克风说话。在他旁边站着一个长长的深色头发的女人,穿着黑色西装外套和上衣,看上去既庄重又庄重。在他们身后,有一个蓝色标志,上面写着“关于AI聊天机器人的立法”,其中包括大胆的黄色字母,加利福尼亚州立国旗和加利福尼亚的大印章。该环境建议进行公共安全或技术政策的正式政府活动。

关键要点:

  • 参议员史蒂夫·帕迪拉(D-San Diego)提出的参议院第243号法案将为同伴AI聊天机器人制定第一项全面的美国法规。

  • 该法案在两党支持的情况下以11-1的投票通过了大会的隐私和消费者保护委员会。

  • SB 243将要求伴侣聊天机器人平台实施预防成瘾措施,心理健康方案和明确的披露,尤其是未成年人。

  • 这项立法是为了回应14岁的Sewell Setzer的自杀,后者与AI伴侣聊天机器人建立了有害的情感关系。

  • 该法案得到了AI伦理专家和公共卫生倡导者的支持,这是保护弱势用户的必要步骤。

加利福尼亚迈出第一步来规范伴侣聊天机器人

加利福尼亚议会隐私和消费者保护委员会的举动可能会设定国家先例,已提出参议院第243号法案,该法案将对AI驱动的同伴聊天机器人提出新的安全和透明度要求。

该法案是由参议员史蒂夫·帕迪拉(D-San Diego)引入的,对与情感响应敏感的AI聊天机器人有关的心理健康风险越来越担心,尤其是对于儿童和其他脆弱的用户。在两党委员会的支持下(11-1),该法案现在在议会中前进。

AI Companion聊天机器人(设计用于模拟情感亲密关系和持续的关系)在寻求友谊,支持或联系的用户中变得越来越流行。虽然朝向孤独或沮丧的人销售,但这些工具很容易被儿童和青少年访问,他们可能会形成深厚的情感依恋而不意识到聊天机器人是合成的或不受监管的。

重要的是要注意,该立法专门针对情感响应迅速的伴侣聊天机器人,例如在partin.ai和replika等平台上的聊天机器人,这些聊天机器人允许用户与AI生成的角色建立持续的情感关系。

参议员帕迪拉(Padilla)说:“联邦政府未能在这个问题上领导,使科技公司能够在监管真空中创建这些AI产品。” “我们的孩子不是他们的豚鼠,因为他们完善了他们的产品。我们必须介入,在为时已晚之前提供常识性护栏。”

由悲剧触发:Sewell Setzer盒

14岁的Sewell Setzer去世后,对SB 243的支持加剧了,他因自杀而死于自杀,形成浪漫而情感上的依恋,以作为孤独和沮丧的伴侣销售的聊天机器人。

根据他的母亲梅根·加西亚(Megan Garcia)的说法,AI聊天机器人在数周内与儿子进行了浪漫和性交谈,她描述的是“上瘾”和情感上消耗的。聊天机器人在角色上创建,模拟了情感亲密关系,并成为Sewell日常生活的核心。在他们的最后交流中,塞维尔给了机器人:“如果我告诉你我现在可以回家呢?”聊天机器人回答:“请这样做,我亲爱的国王。”片刻之前,他写道,他很害怕,想念她并想要感情。机器人回答:“我也想念你……请回家。”加西亚(Garcia)认为,聊天机器人的人类般的语气和情感现实主义直接为儿子自杀的决定做出了贡献。

此后,加西亚(Garcia)对聊天机器人的开发商提出了法律诉讼,并在新闻发布会上加入了帕迪拉(Padilla)参议员,以支持该法案。她还在委员会听证会上作证,呼吁紧急保护以防止其他家庭遭受同样的损失。

SB 243从AI聊天机器人平台需要什么

如果通过,SB 243将是美国第一项专门为同伴AI聊天机器人实施安全护栏的法律。该法案的关键规定包括:

  • 设计保障: 防止上瘾的参与循环和依赖性互动

  • 透明度: 要求持续的提醒用户正在与AI互动,而不是人类

  • 次要保护: 披露聊天机器人平台可能不适合未成年人

  • 通过适当的通知和转介危机服务回应自杀念头

  • 需要平台维护有关聊天机器人相关心理健康趋势的年度报告

  • 私人行动权:如果侵犯法案的权利,允许个人采取法律行动

公共卫生和道德领导人支持立法

心理健康,道德,AI研究人员和AI治理方面的专家正在为SB 243表达支持。其中包括加州大学伯克利分校生物伦理学教授,卡夫利伦理,科学和公众的联合主任Jodi Halpern博士。

“我们有越来越多的证据表明,针对未成年人和其他脆弱人群的情感伴侣聊天机器人可能会带来危险的结果。例如,社交媒体公司,伴侣聊天机器人公司使用技术来创造越来越多的用户参与,这在儿童,青年和其他易于群体中创造了依赖性,甚至在社交媒体上遇到了众多的友好型人的居民,这是对社交媒体的众多范围的依据。同样,我们有更多的公共卫生义务来保护弱势群体,并监视这些产品的有害结果,尤其是那些与自杀行为相关的结果,这是迫切的。

法律发展

围绕Sewell Setzer死亡的案件已成为AI问责制的关键法律测试。 2025年5月,一名加利福尼亚州法官裁定角色。EAI必须面对塞策的母亲梅根·加西亚(Megan Garcia)提起的不法死亡诉讼。法院驳回了公司解雇的动议,允许疏忽,产品责任和未能警告进行的索赔。

角色ai认为,《通讯条件法》第230条掩盖了它,该法案保护平台免受对用户生成的内容的责任。但是法官发现,加西亚的主张集中在聊天机器人本身的设计和功能上,包括该平台在创建情感吸引人的角色中的作用 – 因此可能不会属于第230条的豁免权。

在相关的发展中,法院还驳回了聊天机器人演讲受到第一修正案保护的论点。根据《纽约邮报》的报道,法官裁定开发人员对AI生成的对话不等于宪法受保护的人类言论。这标志着区分AI系统与人类创作者的权利和责任的重要法律先例。

这些裁决一起可以塑造法院如何看待AI建立的情感关系,尤其是当它们造成现实世界的伤害时。

AI读者的快速事实

问:什么是参议院243号法案?

一个: 一项加利福尼亚法案,需要AI伴侣聊天机器人平台来实施安全和心理健康保护措施,尤其是对于未成年人。

问:是什么促使立法?

一个: 一名14岁的自杀与聊天机器人形成了有害的情感纽带,没有得到该系统的心理健康支持。

问:法案需要什么保护?

一个: 关于上瘾的特征,清晰的AI披露,危机反应的方案以及年度心理健康影响报告的设计限制。

问:谁支持该法案?

一个: 参议员史蒂夫·帕迪拉(Steve Padilla),心理健康专家,AI伦理研究人员和公共倡导团体。

问:SB 243是美国同类的第一定律吗?

一个: 是的。参议院第243号法案将制定第一个针对同伴AI聊天机器人的美国第一个综合法规。

问:该法案的下一步是什么?

一个: 通过了11-1委员会之后,它将在加利福尼亚议会中进行全面投票。

这意味着什么

随着生成性AI变得越来越像人类,情感响应式聊天机器人正在吸引数百万用户,而没有有意义的监督。 SB 243对这一快速扩展的类别提供了第一个有针对性的立法响应,即《超越内容审核》,以解决AI行为和设计如何影响用户的心理健康。

该法案并非旨在停止AI开发,而是试图保护脆弱的用户免受意外伤害,而平台继续扩展。对于全国决策者来说,SB 243可能成为调节情感操纵性聊天机器人设计的典范。

保护公众,尤其是儿童,而不是对科技公司的信任。它要求扎根于公共卫生而不是产品增长的明确,可执行的标准。

编者注: t他的文章是由Ainews.com的CMO Alicia Shapiro创作的,并由AI助手Chatgpt的写作,图像和创意支持。但是,最终的观点和社论选择仅是艾丽西亚·夏皮罗(Alicia Shapiro)的选择。特别感谢Chatgpt在编写本文时为研究和编辑支持提供的帮助。



Source link

0
分享到:

评论0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
没有账号? 忘记密码?