
谷歌官网
谷歌近期对其生成式AI工具的使用条款进行了更新,明确规定客户可以在具备人类监督的前提下,在诸如医疗保健、金融贷款审批、就业筛选等关键领域部署AI进行自动化决策。此更新不仅明确了以往含糊不清的规定,还为用户提供了更为清晰的指导方针。
根据谷歌发布的更新后的《生成式AI禁止使用政策》,该公司强调,只要确保有适当的人类参与,其AI系统可以用于做出可能对个人权利产生重大不利影响的决定。这意味着,企业现在可以在谷歌AI的帮助下评估信贷申请或审查求职者简历,但必须确保这些过程受到严格的监控。
值得注意的是,虽然新政策看似放宽了限制,但实际上它重申了一直以来存在的要求——即在所有高风险领域中实施AI时都应伴有某种程度的人类干预。一位谷歌发言人表示:“我们始终在政策中规定了人类监督的要求,无论是在哪个高风险应用中。”
相比之下,谷歌的主要竞争对手OpenAI和Anthropic则采取了更为严格的态度。例如,OpenAI明令禁止将服务用于涉及信用评分、就业、住房等多个方面的自动化决策。而Anthropic虽然允许其AI被用于法律、保险及健康护理等领域的自动化决策,但也坚持要求由专业人士监督,并且要求用户公开说明他们正在利用AI技术来完成此类任务。
随着AI技术逐渐渗透到日常生活的方方面面,关于其潜在偏见及其对社会公平性的影响也引发了广泛关注。研究表明,某些类型的AI可能会延续甚至加剧历史上的歧视现象,尤其是在处理敏感信息时。因此,欧盟通过了《AI法案》,旨在加强对高风险AI系统的监管力度;而在美国,科罗拉多州也制定了相关法律,强制要求披露有关高风险AI的信息。此外,纽约市更是出台法规,禁止雇主在没有经过年度偏差审计的情况下使用自动化工具来进行雇佣决策。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...