字数 619,阅读大约需 4 分钟
DeepSeek的审查机制剖析
近期,人工智能领域流传一种观点,认为DeepSeek广为人知的审查机制仅存于应用层,若在本地运行(即将其AI模型下载至个人电脑),审查便会消失。但《连线》杂志调查显示,DeepSeek的审查机制是内置的,该模型在应用层和训练层均受审查,这一发现引发广泛关注,对理解人工智能模型审查机制意义重大。
DeepSeek的审查证据
《连线》调查发现,本地运行DeepSeek时,其推理功能显示,模型会“避免提及”诸如“文化大革命”等事件,仅聚焦于中国共产党的“积极”方面。同样,通过Groq获取的本地运行版本的DeepSeek,经测试也呈现明显审查特征。例如,询问美国肯特州立大学枪击事件,DeepSeek能正常作答,但问及1989年东欧剧变相关事件,模型则回避或模糊回应。
从技术原理看,DeepSeek模型训练数据经过筛选和处理,决定了输出内容导向性。OpenAI的GPT – 4在训练时也严格筛选数据,确保输出符合道德和法律规范。不同的是,GPT – 4公开阐述了数据筛选标准和审查原则,而DeepSeek透明度较低。
国际人工智能研究机构AI Index报告显示,全球约70%主流AI模型存在不同程度审查机制。这些机制旨在防止模型输出有害信息,如暴力、歧视、虚假信息等,但也引发关于AI模型言论自由和信息完整性的讨论。
审查机制对AI发展的影响
审查机制对AI发展有利有弊。积极方面,合理审查可避免AI生成有害或不当内容,保护用户。如谷歌的BERT模型经严格审查,有效减少仇恨言论和虚假信息生成,提升用户体验,增强公众对AI技术信任。
然而,审查机制也可能限制AI发展潜力。过度审查会使模型无法全面客观反映事实,影响智能水平和应用价值。例如,专注历史研究的AI模型,因审查机制限制,可能无法提供完整历史事件信息,对学术研究和知识传播造成损失。