字数 1478,阅读大约需 8 分钟

AI 先驱李飞飞:AI 政策应基于科学,而非科幻
在人工智能飞速发展的当下,相关政策的制定成为了全球关注的焦点。著名的斯坦福大学计算机科学家、同时也是初创企业创始人,素有 “AI 教母” 之称的李飞飞,在巴黎举行的AI行动峰会前夕,明确阐述了“未来AI政策制定的三项基本原则”。其中,“AI政策必须基于科学,而非科幻”这一观点,在业界引起广泛讨论。
基于科学,回归现实
李飞飞强调,政策制定者应当聚焦于AI的当前实际情况,而非那些宏伟的未来场景,无论是乌托邦式的美好幻想,还是世界末日般的恐怖预言。以当下热门的聊天机器人和辅助驾驶程序为例,它们并非具备意图、自由意志或意识的智能形式。然而,在公众认知和部分政策讨论中,这些远超现实的设想却时常占据主导,使得政策制定偏离了实际需求。
一份由国际权威人工智能研究机构发布的《2024年全球人工智能现状报告》显示,尽管AI在自然语言处理和图像识别等领域取得了显著进展,但距离真正拥有自我意识和自主意志的“强人工智能”仍有漫长的道路要走。目前市场上主流的AI模型,如OpenAI的GPT系列,本质上是基于大规模数据训练的语言预测系统,它们虽然能够生成看似智能的回复,但并不具备真正理解语义和自主思考的能力。
在实际应用场景中,比如医疗领域,AI辅助诊断系统能够通过分析大量的病历数据来提供疾病诊断建议,但最终的诊断决策仍需医生基于专业知识和临床经验来做出。因为AI系统并不能真正理解疾病背后的病理生理机制,只是根据数据模式进行匹配。若政策制定者基于科幻般的设想,赋予AI过高的决策权,可能会导致严重的医疗事故。
务实而非意识形态
李飞飞提出的第二项原则是政策应“务实,而非意识形态”。这意味着政策的制定应着眼于“在激励创新的同时,将意外后果降至最低”。在AI发展的浪潮中,创新是推动行业前进的核心动力,但同时也不能忽视可能带来的负面影响。
据知名市场调研公司IDC的数据,2024年全球AI初创企业的融资额达到了创纪录的规模,同比增长显著,这表明了行业对AI创新的高度热情。然而,一些创新在带来便利的同时,也引发了诸如数据隐私、算法偏见等问题。例如,人脸识别技术在安防、金融等领域广泛应用,但一些研究发现,部分人脸识别算法在不同种族和性别的识别准确率上存在显著差异,这可能导致对特定群体的不公平对待。
许多国家和地区已经开始意识到这一问题,并出台了相关政策。欧盟的《通用数据保护条例》(GDPR)对数据隐私保护做出了严格规定,旨在规范AI企业的数据使用行为,避免因创新而忽视用户数据安全。美国也在一些州层面推出了算法透明度法案,要求企业公开算法的决策过程,以减少算法偏见带来的负面影响。这些政策的制定并非基于某种意识形态,而是切实从解决实际问题出发,平衡创新与风险。
赋能整个AI生态系统
最后,李飞飞强调政策必须赋能“整个AI生态系统,包括开源社区和学术界”。她指出,“开放获取AI模型和计算工具对于行业进步至关重要”。限制这种开放,将为学术机构和研究人员设置障碍,减缓创新速度,尤其是对于那些资源相对匮乏的学术机构而言。
以深度学习框架PyTorch和TensorFlow为例,它们都是开源的深度学习平台,吸引了全球范围内的开发者和研究人员参与其中。截至2024年底,PyTorch和TensorFlow在GitHub上收获了大量星标,这表明了开源社区对AI技术发展的强大推动作用。众多学术研究成果基于这些开源框架得以实现,许多初创企业也借助它们快速搭建自己的AI应用。
在学术界,开放获取的AI模型和工具为研究人员提供了更多的研究可能性。例如,斯坦福大学的研究团队利用开源的AI模型,在图像识别领域取得了一系列突破性成果,为医学影像诊断、自动驾驶等领域的发展提供了重要支持。若这些资源被限制使用,学术界的研究进度将受到严重阻碍,进而影响整个AI行业的创新步伐。