字数 1268,阅读大约需 7 分钟

Meta AI与ChatGPT在偏见问题上的立场差异及其影响
在人工智能领域,偏见问题一直备受关注。Meta AI和ChatGPT作为两大知名AI模型,在处理偏见问题上展现出不同的立场和策略。
Meta AI的偏见消除主张与争议
Meta在发布Llama 4模型时,明确表示其目标是消除AI模型中的偏见,并确保Llama能够理解和阐述争议性问题的双方观点。然而,这一主张引发了广泛的争议。
研究显示Llama的右翼倾向
2023年的一项研究由华盛顿大学、卡内基梅隆大学和西安交通大学共同进行,结果显示Llama在回答提示时已经倾向于给出最右翼的威权主义答案,而ChatGPT则倾向于给出最左翼的答案。这与Meta宣称的消除偏见目标相矛盾。
偏见的复杂性
偏见问题远非简单的左右之分。大型语言模型中存在各种类型的偏见,包括但不限于性别、种族、文化和地域等。Meta的博客文章将偏见问题简化为左右倾向,忽略了这些复杂性。
技术手段与潜在风险
为了调整模型的回答倾向,Meta可能采用了多种技术手段。
训练数据的选择与加权
在模型训练之前,Meta可以决定哪些数据被包括或排除,以及如何对不同来源的数据进行加权。这种选择和加权过程可能已经引入了偏见。
后训练阶段的微调
在后训练阶段,也称为微调阶段,模型创建者可以使用不同的技术来引导模型。例如,通过强化学习从人类反馈中学习,告诉模型哪些类型的答案是首选的。另一种方法是提供额外的系统级提示,以改变答案的呈现方式。然而,这种粗暴的工具可能导致意想不到的后果,如Meta和Google在尝试抵消偏见时生成了不切实际和历史不准确的图像。
社会影响与价值观争议
Meta的偏见调整引发了研究人员和人权组织的担忧,他们认为Meta似乎在将Llama推向右翼。分布式AI研究所的研究主任Alex Hanna表示,这似乎是一种明显的意识形态举措,旨在向特朗普政府示好。
全球范围内的价值观争议
关于AI系统应反映谁的价值观的争论正在全球范围内展开。Meta的偏见调整可以被视为对这一争议的回应,但其做法是否合适仍存在争议。
回答拒绝问题的争议
Meta和Grok将自己定位为愿意回答其他AI拒绝的问题的模型。然而,一些AI专家对此表示担忧。Allen Institute for AI的高级研究员Jesse Dodge认为,拒绝回答某些问题是构建可用模型的重要组成部分,他不明白为什么Meta会宣传Llama 4拒绝回答的问题更少。
特定群体的担忧
GLAAD等组织对Llama 4提及已遭驳斥的转化疗法表示担忧。他们认为,将反LGBTQ的伪科学与已确立的事实和研究等同起来,不仅具有误导性,还为有害的错误信息正名。所有主要的医学、精神病学和心理学组织都谴责所谓的“转化疗法”,联合国甚至将其比作“酷刑”。
平衡报道的重要性
在报道AI偏见问题时,平衡报道至关重要。我们需要全面了解不同利益相关者的观点和担忧,避免为有害错误信息正名。同时,我们也需要关注技术进步对社会的影响,并确保AI系统的发展符合人类的价值观和利益。