CTGT:引领AI模型安全新纪元,塑造可解释AI的未来
Cyril Gorlla,一个自学成才的编程奇才,11岁时就在他母亲的社区大学编程课程中取得了优异成绩。在高中时期,Gorlla对人工智能产生了浓厚的兴趣,并为了训练自己的AI模型,甚至拆解了自己的笔记本电脑以升级内部冷却系统。这种对技术的执着追求最终使他在大学二年级时获得了英特尔的实习机会,在那里他研究了AI模型的优化和可解释性。
Gorlla的大学时光与AI技术的蓬勃发展期相吻合,这一时期见证了像OpenAI这样的公司为其AI技术筹集了数十亿美元的资金。Gorlla相信AI有潜力改变整个行业,但他也认为安全工作相对于新产品的开发被忽视了。
他说:“我感觉我们需要在理解和训练AI的方式上有一个根本性的转变。模型输出的不确定性和信任缺失是医疗和金融等行业采纳AI的重大障碍,而这些领域正是AI可以产生最大影响的地方。”
因此,Gorlla与他在本科时遇到的Trevor Tuttle一起,放弃了研究生课程,创立了CTGT公司,帮助组织更审慎地部署AI。
Gorlla说:“我的父母还以为我在学校,他们读到这篇文章可能会感到震惊。”
CTGT与公司合作,识别模型的偏见输出和幻觉,并试图解决这些问题的根本原因。虽然从模型中完全消除错误是不可能的,但Gorlla声称CTGT的审计方法可以帮助企业减轻这些问题。
他解释说:“我们暴露了模型对概念的内部理解。一个模型告诉用户在食谱中加入胶水可能是幽默的,但当客户询问产品比较时,推荐竞争对手的反应就没那么微不足道了。基于过时的临床研究信息向患者提供信息,或基于幻觉信息做出信贷决策,是不可接受的。”
最近的一项调查显示,可靠性是采用AI应用的企业最关注的问题之一。在另一项研究中,超过一半的高管表示,他们担心员工会根据AI工具中的不准确信息做出决策。
Gorlla表示:“我们的数学保证的可解释性与当前最先进的方法不同,这些方法效率低下,需要训练数百个其他模型来获得对模型的洞察。随着公司越来越意识到计算成本,企业AI从演示转变为提供真正价值,我们在提供公司能够严格测试高级AI安全性的能力方面具有重要意义,而无需训练额外的模型或使用其他模型作为裁判。”
为了消除潜在客户对数据泄露的担忧,CTGT提供了本地选项以及托管计划。两者收取相同的年费。
Gorlla说:“我们无法访问客户的数据,让他们完全控制数据的使用方式和地点。”
CTGT是[Character Labs]加速器的毕业生,得到了前GV合伙人Jake Knapp和John Zeratsky(Character VC的联合创始人)、Mark Cuban和Zapier联合创始人Mike Knoop的支持。
Cuban在一份声明中说:“不能解释其推理的AI对于许多适用复杂规则和要求的领域来说,智能程度还不够。我投资CTGT是因为它正在解决这个问题。更重要的是,我们在自己的AI使用中看到了结果。”
尽管处于早期阶段,CTGT已经拥有了几名客户,包括三家未具名的财富10强品牌。Gorlla表示,CTGT与其中一家公司合作,最小化了他们面部识别算法中的偏见。
他说:“我们的平台为从业者提供了即时的洞察,而无需传统可解释性方法的猜测和浪费时间。”
CTGT未来几个月的重点将是扩大其工程团队(目前只有Gorlla和Tuttle)并完善其平台。
如果CTGT能够在AI可解释性市场获得一席之地,这确实是一个利润丰厚的市场。分析公司[Markets and Markets]预测,到2028年,“可解释AI”作为一个行业可能价值162亿美元。
Gorlla说:“模型大小远远超过了[摩尔定律],以及AI训练芯片的进步。这意味着我们需要关注AI的基础理解——以应对模型决策的效率低下和日益复杂的性质。”