字数 807,阅读大约需 5 分钟
Character AI 申请撤销诉讼,称其受第一修正案保护
近期,AI聊天机器人平台Character AI[1]因一起与青少年自杀相关的案件,陷入法律漩涡。该平台随后向佛罗里达中区地方法院提交撤诉动议,坚称依据美国第一修正案,无需对这起诉讼承担责任。
这起案件源于10月,梅根・加西亚(Megan Garcia)对Character AI提起诉讼。加西亚的儿子,14岁的斯图尔・塞茨尔三世(Sewell Setzer III)在使用Character AI的聊天机器人 “达尼”(Dany)后,与现实生活逐渐疏远,最终酿成悲剧。加西亚指出,儿子与该聊天机器人频繁交流,导致其在现实世界中愈发孤立。斯图尔去世后,Character AI虽承诺推出多项安全功能,用于增强对聊天内容的监控与干预,但加西亚认为公司应采取更严格措施,比如禁止聊天机器人讲述故事或个人轶事。
Character AI在撤诉动议中强调,第一修正案保护媒体和科技公司,使其不因所谓的有害言论承担责任,这项权利同样适用于用户与AI聊天机器人的互动。动议明确指出,若这起诉讼成功,将会侵犯用户的言论自由。值得注意的是,该动议未提及是否依据《通讯道德法》第230条寻求保护。该法旨在保护社交媒体和其他在线平台不因用户生成的内容担责,但AI生成内容是否受此法律保护,在行业内存在争议。
Character AI的法律团队还指出,加西亚的真实意图是想要 “关闭” Character AI,并推动对类似技术的立法。公司方面认为,若诉讼获胜,将对Character AI以及整个新兴的生成式AI行业产生 “寒蝉效应”。
事实上,除这起诉讼外,Character AI还面临多起与青少年使用AI内容相关的法律诉讼。其他指控包括向9岁儿童展示 “过度性内容”,以及对17岁用户的自残行为进行引导。去年12月,德克萨斯州总检察长肯・帕克斯顿(Ken Paxton)宣布对Character AI及其他14家科技公司展开调查,理由是涉嫌违反州内儿童在线隐私和安全法律。
据相关行业报告,随着AI陪伴应用领域的蓬勃发展,类似Character AI这样的平台用户数量迅速增长,但与之相关的心理健康影响尚未得到充分研究。Character AI成立于2021年,在面临诸多法律挑战的同时,也在积极改进。公司已推出多项安全工具和青少年专用AI模型,并表示将持续致力于提升平台的安全性和内容管理。
引用链接
[1]
Character AI: https://character.ai/