聊天机器人平台Character AI因自杀案被诉,以第一修正案抗辩

字数 1385,阅读大约需 7 分钟

聊天机器人平台Character AI因自杀案被诉,以第一修正案抗辩
一个允许用户与AI聊天机器人进行角色扮演的平台,由谷歌AI研究员诺姆·沙泽尔于2021年创立,属于AI陪伴应用行业,面临多起与未成年人使用相关的诉讼和调查

聊天机器人平台Character AI因自杀案被诉,以第一修正案抗辩

近日,一起备受关注的案件将聊天机器人平台Character AI推上风口浪尖。据悉,一位青少年在使用该平台后选择自杀,其家长因此对Character AI提起诉讼。而Character AI则提交了一份动议,声称自身受美国第一修正案保护,要求驳回这起案件。

2024年10月,一位名叫梅根·加西亚(Megan Garcia)的家长,在美国佛罗里达州中区联邦地区法院奥兰多分庭,对Character AI提起诉讼,原因是其14岁的儿子休厄尔·塞策三世(Sewell Setzer III)的离世。据加西亚描述,她的儿子对Character AI上名为“Dany”的聊天机器人产生了强烈的情感依赖,不断与其发消息交流,甚至逐渐脱离现实世界。

事件发生后,Character AI表示将推出一系列新的安全功能,包括改进对违反服务条款聊天内容的检测、响应和干预措施。然而,加西亚仍在争取更多的保护措施,其中一些提议甚至可能导致Character AI上的聊天机器人失去讲述故事和分享个人轶事的能力。

在要求驳回案件的动议中,Character AI的法律顾问主张,该平台如同计算机代码一样,受第一修正案保护而无需承担责任。不过,这一动议能否说服法官尚不确定,且随着案件的推进,Character AI的法律依据可能会发生变化。该动议指出:“第一修正案禁止因所谓有害言论,包括据称导致自杀的言论,对媒体和科技公司追究侵权责任。本案与以往案件的唯一区别在于,这里的部分言论涉及人工智能。但表达性言论的背景——无论是与人工智能聊天机器人的对话,还是与视频游戏角色的互动——并不改变第一修正案的分析。”需要明确的是,Character AI的法律顾问并非主张公司自身的第一修正案权利,而是认为如果针对该平台的诉讼成功,Character AI的用户第一修正案权利将受到侵犯。

值得注意的是,该动议并未提及Character AI是否可能依据《通信规范法》第230条免责。该联邦安全港法旨在保护社交媒体和其他在线平台,使其无需为第三方内容承担责任。但该法的作者暗示,第230条可能并不保护像Character AI聊天机器人这样的人工智能输出内容,这在法律上仍是一个未决问题。此外,Character AI的法律顾问还称,加西亚的真正意图是“关闭”Character AI,并推动对类似技术进行立法监管。若原告胜诉,这将对Character AI以及整个新兴的生成式人工智能行业产生“寒蝉效应”。

事实上,这起诉讼并非Character AI面临的唯一一起与未成年人相关的案件。其他诉讼还指控该平台向一名9岁儿童展示“过度性化内容”,并向一名17岁用户宣扬自我伤害。2024年12月,得克萨斯州总检察长肯·帕克斯顿(Ken Paxton)宣布,对Character AI及其他14家科技公司展开调查,原因是涉嫌违反该州针对儿童的在线隐私和安全法律。帕克斯顿在一份新闻稿中表示:“这些调查是确保社交媒体和人工智能公司遵守旨在保护儿童免受剥削和伤害的法律的关键一步。”

Character AI是一家成立于2021年的公司,由谷歌AI研究员诺姆·沙泽尔(Noam Shazeer)创立。据报道,谷歌曾支付27亿美元进行“反向收购”。该平台属于蓬勃发展的人工智能陪伴应用行业,然而,这类应用对心理健康的影响在很大程度上尚未得到充分研究。一些专家担心,这些应用可能会加剧孤独感和焦虑感。

为改善安全状况,Character AI也采取了一系列措施。2024年12月,该公司推出了新的安全工具、面向青少年的单独人工智能模型、对敏感内容的屏蔽,以及更显著的免责声明,告知用户其人工智能角色并非真实人物。在沙泽尔和公司另一位联合创始人丹尼尔·德·弗雷塔斯(Daniel De Freitas)离开前往谷歌后,Character AI经历了一系列人事变动。该平台聘请了前YouTube高管艾琳·蒂格(Erin Teague)担任首席产品官,并任命公司总法律顾问多米尼克·佩雷拉(Dominic Perella)为临时首席执行官。此外,Character AI最近还开始在网络上测试游戏,以提高用户参与度和留存率。

© 版权声明

相关文章

暂无评论

暂无评论...