![杜克大学 OpenAI资助杜克大学研究AI道德算法](https://aimgsgoheap.codexiu.cn/2024/11/2024-11-24-duke-d2b97419cc744427b322b994ee705ad8.webp)
杜克大学
OpenAI正在资助杜克大学的一项研究,该研究旨在开发能够预测人类道德判断的算法。这项研究由杜克大学的教授沃尔特·辛诺特-阿姆斯特朗(Walter Sinnott-Armstrong)领导,他是一位专注于实用伦理学的学者。项目的目标是在涉及医学、法律和商业等领域的情景中,解决道德相关的冲突问题。
据杜克大学的新闻稿显示,这项研究是为期三年、总额为100万美元的资助计划的一部分。尽管目前关于这项“道德”研究的具体细节不多,但辛诺特-阿姆斯特朗教授和他的合作者们已经在这方面取得了显著进展。他们曾开发了一个“道德一致”的算法,用于帮助决定谁应该接受肾脏捐赠,并研究了人们在哪些情况下更愿意让AI做出道德决策。
然而,实现这一目标并非易事。道德是一个极其复杂的概念,不同文化和社会背景的人们对其有着不同的理解。此外,现有的AI技术仍然存在诸多局限。例如,2021年,非营利组织Allen Institute for AI开发了一款名为Delphi的工具,旨在提供道德建议。虽然它在处理基本的道德困境方面表现良好,但在面对稍作改动的问题时,却常常给出错误的答案,甚至支持一些极端的行为。这反映了当前AI技术的一个核心问题:它们主要依赖于统计模式进行预测,而缺乏对伦理概念的深刻理解和情感判断能力。
此外,AI系统通常会受到其训练数据的影响,而这些数据往往来源于互联网上的内容,主要反映的是西方、受过教育和工业化国家的观点。因此,AI系统所给出的答案可能并不适用于所有人群,尤其是那些没有积极参与网络活动的人。不仅如此,AI系统还内化了许多偏见,例如,Delphi曾表示异性恋比同性恋更“道德上可接受”。
对于OpenAI及其资助的研究人员来说,面临的挑战不仅在于技术层面,还在于如何处理道德判断的主观性。哲学家们已经就各种伦理理论的优劣争论了数千年,至今仍未达成共识。不同的伦理理论,如康德主义(强调绝对的道德规则)和功利主义(追求最大多数人的最大幸福),各有支持者。在这种背景下,开发一种能够准确预测人类道德判断的算法将是一项艰巨的任务。不过,这一研究无疑为AI伦理领域的发展带来了新的希望。