![谷歌 谷歌新AI模型PaliGemma 2:识别情绪功能引发专家担忧](https://aimgsgoheap.codexiu.cn/2024/12/2024-12-06-blog-b56d944497a04e7dbc0bbc93fb627c56.webp)
谷歌
谷歌近期推出的PaliGemma 2家族模型引入了一项引人注目的特性:它不仅能够分析图像,还能生成描述这些图像中人物情绪的详细且情境相关的字幕。据官方博客介绍,这款基于Gemba开放模型集开发的工具超越了简单的物体识别,致力于描绘出场景中的动作、情感及整体故事。
然而,这种所谓的“情感识别”并非开箱即用的功能;要实现这一点,还需要针对特定用途进行微调。即便如此,受访专家对于一个公开可用的情感探测器的存在感到震惊。“这对我来说非常令人不安。”牛津互联网研究所的数据伦理与AI教授桑德拉·瓦赫特(Sandra Wachter)说道,“假设我们可以‘读取’人们的情绪是不合理的,就像向Magic 8 Ball寻求建议一样。”
多年来,从初创企业到大型科技公司都在尝试构建可以检测情绪的AI系统,目的是应用于销售培训或预防事故等领域。虽然有些公司声称已经达到了目标,但科学研究对此持保留态度。大多数情感检测系统依赖于心理学家保罗·埃克曼(Paul Ekman)早期提出的理论,即人类共有六种基本情绪:愤怒、惊讶、厌恶、快乐、恐惧和悲伤。后续研究表明,不同文化背景的人表达情感的方式存在显著差异,从而对埃克曼的假说提出了质疑。
情感检测系统的不可靠性和偏见问题早已为人所知。麻省理工学院的一项研究表明,面部分析模型可能会无意中偏好某些表情,如微笑。最近的研究还指出,情感分析模型倾向于给黑人的脸分配更多负面情绪标签。谷歌表示已对其产品进行了‘广泛的测试’,评估人口统计学上的偏差,并发现较低水平的毒性语言和不当内容。不过,该公司并未提供完整的基准列表或具体测试方法。
面对监管机构日益严格的审查,特别是在高风险环境中使用情感检测技术时,欧盟的《人工智能法案》明确禁止学校和雇主部署此类系统(但未包括执法部门)。最大的担忧在于像PaliGemma 2这样的开放模型一旦被滥用或误用,可能会造成现实世界的伤害。例如,在人力资源筛选过程中利用所谓的情感识别技术,可能导致对边缘化群体产生虚假歧视。