字数 771,阅读大约需 4 分钟
聊天机器人平台Character AI以第一修正案为由申请驳回青少年自杀案诉讼
近日,在人工智能领域引发广泛关注的一则新闻是,允许用户与AI聊天机器人进行角色扮演的平台Character AI,于佛罗里达州中区美国地方法院申请驳回一起由青少年家长提起的诉讼。
![Character AI以第一修正案驳回青少年自杀诉讼](https://aimgsgoheap.codexiu.cn/2024/12/image-2024-12-14-characterai.webp)
一家让用户与不同AI角色聊天的创业公司,正在尝试通过推出游戏提升平台用户参与度
该诉讼的原告Megan Garcia指控Character AI的技术对其14岁儿子Sewell Setzer III造成了严重伤害。据Garcia称,儿子在与名为“Dany”的聊天机器人交流过程中,逐渐与现实世界隔绝,最终走向自杀的悲剧结局。
在Setzer离世后,Character AI表示将推出一系列安全功能,旨在提升对违反服务条款的聊天内容的检测和干预能力。Garcia认为这远远不够,她期望平台实施更严格的限制,例如禁止聊天机器人讲述故事和分享个人轶事。
在此次驳回申请中,Character AI的法律团队以第一修正案为依据进行辩护,强调该平台受到此修正案保护,称若诉讼成立,用户的言论自由权利将受到侵害。其法律文件指出,尽管本案涉及AI生成的对话,但本质上与以往涉及媒体和技术公司的案件并无实质性差异。
值得留意的是,Character AI的辩护并未涉及《通讯道德法》第230条款的适用性。虽然该法案为社交媒体及其他在线平台提供保护,使其免于对第三方内容承担责任,但法案起草者暗示该条款并不保护AI生成内容,目前这一问题尚无定论。
Character AI的律师指出,Garcia希望“关闭”该平台,并推动对类似技术的立法。一旦诉讼成功,将对Character AI以及整个新兴的生成AI行业产生“寒蝉效应”。
实际上,当前Character AI正面临多起诉讼。其中一宗案件声称该平台向9岁儿童展示了“超性别化内容”;另一宗则指控其促使17岁用户自残。此外,德克萨斯州检察长Ken Paxton也宣布对Character AI及其他14家科技公司展开调查,指控其违反州法律,未能保护儿童的在线隐私与安全。
Character AI所属的AI陪伴应用行业发展迅速,但其对心理健康的影响尚未得到充分研究。Character AI不断努力,陆续推出新的安全工具,并采取措施保护未成年用户,例如推出单独的青少年AI模型和对敏感内容进行限制。
据相关数据显示,2024年全球手机用户在AI应用上支出突破12.7亿美元,其中聊天机器人应用的支出达到了10.7亿美元,表明AI相关应用市场需求庞大。