在当今快速发展的科技时代,人工智能(AI)的应用已经渗透到各个行业。谷歌推出的Gemini项目是该公司在AI领域的又一力作,旨在通过大规模的数据训练来提升机器学习模型的表现。然而,最近有消息指出,谷歌在其Gemini项目的开发过程中遇到了一些争议性的问题。
为了不断改进Gemini的能力,谷歌依赖于一群被称为“prompt工程师”和分析师的专业人士,他们负责评估AI输出的准确性。但是,一项新的内部指南规定改变了这一流程。现在,GlobalLogic——一家由日立公司拥有的外包服务提供商——的合同工被要求评估AI生成的回答,即使这些回答涉及的是他们并不熟悉的领域,例如心脏病学等高专精领域。
在此之前,如果某个提示或问题是合同工无法理解的,他们可以选择跳过该任务。但现在,除非信息完全缺失或者包含有害内容,否则他们必须尝试评估,并注明自己缺乏相关领域的知识。这种变化引起了对Gemini准确性的担忧,因为非专业的评价可能导致错误的信息传播。
一位不愿透露姓名的合同工表示:“我原本以为跳过是为了确保更高的准确性,交给更合适的人来做。”此政策的改变可能意味着,在某些情况下,Gemini提供的信息质量可能会受到影响,特别是在处理复杂或敏感的话题时。
虽然谷歌方面尚未对此作出评论,但这一举措无疑为AI行业的未来发展提出了新的挑战。它不仅考验着企业在追求技术创新的同时如何保证数据的质量,也提醒我们要重视人类专家在监督AI发展过程中的重要作用。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...