字数 1112,阅读大约需 6 分钟
![微软 惊!知识工作者用AI竟面临批判性思维退化](https://ai.codexiu.cn/wp-content/uploads/2025/01/image-2025-01-08-Microsoft-teams-.webp)
研究背景
近日,微软研究院与卡内基梅隆大学的研究人员联合发布一项新研究,揭示知识工作者使用生成性人工智能(如Copilot[1]和ChatGPT[2])时,面临批判性思维退化的问题。
研究方法与样本
研究小组对319名每周使用生成性AI的知识工作者展开调查。这些工作者来自不同领域,日常工作频繁接触和运用此类工具。研究人员通过调查,探讨他们使用工具时批判性思维的应用情况。
研究结果与发现
信心与批判性思维的关系
研究显示,对任务充满信心的工作者,更倾向于对生成性AI的输出进行批判性思考;对任务缺乏信心的人,则常认为AI回答足够,不再深入思考。这表明对AI的信任程度与批判性思考的努力程度紧密相关。
过度依赖AI导致批判性思维下降
过度依赖AI工具可能导致批判性思维能力下降。在数字化时代,许多知识工作者将AI视为解决问题的得力助手,忽略自身批判性思维锻炼。长此以往,面对AI无法解决的问题或错误信息时,他们可能手足无措。
对企业AI工具设计的启示
平衡信任与信心因素
设计企业AI工具时,平衡对AI的信任与用户自信心很重要。企业需思考如何在满足用户高效需求的同时,激发其批判性思维。比如在设计AI界面和交互方式时,设置引导性提示,鼓励用户思考和验证AI输出。
促进批判性思考的机制
AI工具应包含支持长期技能发展的机制,鼓励用户反思。仅解释AI结论得出方式不够,还应通过主动设计策略促进批判性思考,提供必要帮助。例如,AI工具提供答案时,给出相关参考资料或引导思考的问题,帮助用户理解问题与答案间的逻辑关系。
对知识工作者的建议
运用批判性思维验证AI输出
知识工作者日常工作应保持警惕,用批判性思维验证AI输出。处理重要任务或关键决策时,不能仅因AI答案看似合理就接受,需多方面考量验证。如对比不同AI工具回答,查阅专业资料确保信息准确。
维护基础技能,避免过度依赖
随着AI融入工作,知识工作者需保持信息收集和问题解决的基础技能,防止过度依赖AI。应接受培训,发展信息验证、回答整合和任务管理等技能。例如学会用多种渠道和方法核实AI提供的信息,确保真实可靠。
相关行业报告数据对比
思科研究
思科公司发布的关于CEO在人工智能领域的研究报告显示,97%的CEO计划将AI整合到业务中,但仅有2%的CEO认为自己做好了AI准备。这表明企业层面虽应用意愿高,但实际准备不足,与微软研究中知识工作者对AI的依赖情况类似,反映出对AI技术认识和应用的脱节。
谷歌支持的公共利益AI合作伙伴关系
在法国人工智能行动峰会上启动的Current AI公共利益倡议,首次筹集超4亿美元资金,并计划未来五年内再募集25亿美元。这显示各方重视AI朝着有利于社会方向发展,从侧面反映AI技术在社会层面影响广泛,提醒关注其对社会各方面潜在影响,包括对人类思维方式的影响。
引用链接
[1]
Copilot: https://www.microsoft.com/en-us/microsoft-365/copilot[2]
ChatGPT: https://chat.openai.com/