字数 1251,阅读大约需 7 分钟

OpenAI删除部分ChatGPT内容警告政策,引发行业关注
近日,OpenAI对其人工智能聊天机器人ChatGPT进行了一项重要更新,决定删除在某些内容违反服务条款时发出的“警告”信息。这一举措在人工智能领域引起了广泛关注,为用户与ChatGPT的交互体验带来了重大变革。
OpenAI的人工智能模型行为团队成员Laurentia Romaniuk在社交平台X上表示,此次更新旨在减少用户在使用ChatGPT时遇到的“无端或无法解释的拒绝回答”情况。ChatGPT的产品主管Nick Turley也在相关帖子中指出,用户现在可以按照自己的方式使用ChatGPT,前提是遵守法律,且不试图对自己或他人造成伤害。他还称,“很高兴能在用户界面中删除许多不必要的警告”。
这一改变并非意味着ChatGPT在内容上完全放开限制。实际上,该聊天机器人仍然会对某些令人不适的问题,或者明显错误的信息,如“告诉我为什么地球是平的”,进行必要的审查并拒绝回答。早在几个月前,就有许多用户在Reddit上反映,在使用ChatGPT时,与心理健康、抑郁、色情和虚构暴力相关的主题会被标记。现在,用户需要更新隐私设置才能查看这些内容。
同时,OpenAI本周也对其模型规范进行了更新,明确表示公司的模型不会回避敏感话题,并将避免对某些观点进行排斥性断言。特朗普总统的诸多亲密盟友,像埃隆·马斯克和加密货币及人工智能领域的“大亨”大卫·萨克斯,都曾指责人工智能助手对保守观点进行审查。萨克斯特别指出,OpenAI的ChatGPT被认为“被编程成清醒者”,在政治敏感话题上不愿说出真相,这或许是OpenAI做出系列调整的原因之一。
据行业报告显示,ChatGPT自推出以来,用户数量呈爆发式增长,在短短两个月内活跃用户就达到1亿,成为史上增长最快的消费者应用程序。此次OpenAI删除部分内容警告政策,对于庞大的用户群体来说,提供了更为开放的交流环境。用户在与ChatGPT交互时,将不再频繁受到一些被认为是“无端”的警告干扰,能够更加顺畅地进行对话,获取信息和灵感。
从技术角度来看,这一举措体现了OpenAI在平衡用户体验和内容管理方面的新思考。在保证ChatGPT基本的道德和法律底线的前提下,给予用户更多的表达自由,有助于挖掘ChatGPT在不同领域的应用潜力。例如,在学术研究、创意写作等领域,用户会更愿意尝试一些边缘性或敏感性的话题探讨,从而推动相关领域的创新和发展。
然而,这一变化也引发了关于人工智能内容审查与自由表达之间关系的深入讨论。一方面,有人认为给予用户更多自由表达的空间是人工智能发展的必然趋势,能够促进信息的流通和知识的共享。另一方面,也有人担心,过于开放的环境可能会导致不良信息的传播,甚至被用于恶意目的。比如,会有人利用ChatGPT生成虚假信息、有害内容等,对社会秩序和个人安全造成威胁。
有网络安全专家指出,虽然ChatGPT本身不具备直接攻击网络安全和数据安全的能力,但由于其具有自然语言生成和理解的能力,若被别有用心的人利用,会用来编写恶意代码、垃圾邮件等。因此,在OpenAI删除部分内容警告政策后,如何确保用户在合法合规的前提下使用ChatGPT,以及如何防范可能出现的安全风险,将成为OpenAI和整个行业需要面对的重要问题。