【新智元导读】Sam Altman也迎来「周受资时刻」了,在国会山听证会上,他备受议员尊重。OpenAI和政府一联合,他是要成为rulemaker、登顶硅谷之王了?
不过这一次,国会议员对他的态度截然区别——友好,耐心,做足了作业,虚心请教。北京时间昨晚,OpenAI CEO Sam Altman在美国参议院就AI技术的潜伏危险作证,并敦促立法者对制造先进AI的组织实行许可要求和其他法规。Sam Altman不用接受刁钻的问话,他坐在席位上游刃有余、侃侃而谈,再次向世界证明:作为全球最受注视的初创公司CEO,他在书写着科技世界的规则和未来。面对美国国会,Sam Altman再次斩钉截铁地保证:在未来六个月内,OpenAI坚决不会训练GPT⑸。同时, 他也对全球发出正告:AI有可能会对世界有害,为了应对日趋强大的AI风险,我们需要加强监管和立法,而政府的干预极其重要。明显,只要成为规则制定者,就可以在竞争中赢者通吃。而对在硅谷靠着「社牛」属性闯出一片天地的Altman,和政府打交道,简直轻松得犹如探囊取物。作为科技界异军崛起的新气力,OpenAI在成立8年后,在今年以迅雷不及掩耳之势搅动了全球,逼得所有科技公司都参与进了一场以ChatGPT为出发点的全球内卷。
不过这次听证会,参议院的议员们并没有批评OpenAI的技术带来的混乱,而是谦逊地就ChatGPT的潜伏规则征求了证人们的意见,对Sam Atlman的态度是肉眼可见的友好和尊重。听证会一开始,参议员Richard Blumenthal使用了声音克隆软件复制自己的音色,让ChatGPT写了一段开场白,使用数小时的演讲训练了一个文本到语音生成器。这一场听证会上,立法者明显非常兴奋,与他们曾对小扎和周受资步步紧逼的质疑构成了鲜明对照。
参议员们没有喋喋不休地谈论过去的毛病,而是对AI可能带来的好处充满渴望。
而Altman开门见山地告知参议院:AI技术可能会出错。
他表示,自己很担心人工智能行业对世界造成重大伤害(cause significant harm to the world)。
「如果AI技术出错,酿成的后果不堪假想。我们需要对此发声:我们希望与政府合作,避免这类情况产生。」
「我们认为,政府的监管干预对减轻日趋强大的AI模型的风险,相当重要。比如,美国政府可以斟酌将许可和测试的要求结合起来,以开发和发布超过能力阈值的AI模型。」Altman表示,自己非常担心选举会遭到AI生成内容的影响,因此在这方面需要有足够的监管。对此,参议员Dick Durbin表示,大公司来到参议院「恳求我们的监管」,是很了不起的行动。怎样监管?Altman早就替政府想好了。
1. 成立一个新的政府机构,负责为大型 AI 模型颁发许可,撤消不符合标准的模型的许可。
而对能力远达不到最早进的大模型的技术,他认为不需要使用这类许可监管制度。国会可以「定义能力阈值」,免除小型公司和研究人员可能遇到的监管负担,鼓励创新。
2. 为 AI 模型创建一套安全标准,包括对其危险能力的评估。
例如,模型一定要通过安全测试,比如它们会不会可以「自我复制」和「流出到监管以外」。
3. 要求独立专家对模型在各种指标上的表现进行独立审计。
当参议员问他会不会愿意担负这个角色时,Altman说:我对目前的工作感到满意,不过他很愿意提供一个名单供国会挑选。
Altman说,由于AI模型可以「说服、操纵、影响一个人的行动、信仰」,乃至「创造新的生物制剂」,因此,非常需要许可。对所有超过一定计算能力阈值的系统进行许可会更简单,但Altman表示,自己更愿意根据特定能力划定监管线。他说,GPT⑷模型比其他任何类似模型做出的回应都会更成心、更真实,并且一定会谢绝有害的要求,由于GPT⑷经过了广泛的预发布测试和审计。「在发布任何新系统之前,OpenAI 会进行广泛的测试,聘请外部专家进行详细审查和独立审计,改进模型的行动,并实行强大的安全和监控系统。」「在发布GPT⑷之前,我们花了六个多月的时间进行广泛的评估、外部红队和危险能力测试。」并且在上个月,ChatGPT的用户已可以关闭聊天记录,避免自己的个人数据被用来训练AI模型了。不过呢,也有眼尖的大众发现了「华点」,Altman的提议中,并没有触及到公众热议的两点——1. 要求AI模型为其训练数据公然来源。
2. 制止AI模型使用遭到知识产权保护的作品进行训练。
嗯,就是说,Altman非常奇妙地躲避了这两个争议点。Altman对AI安全规则的提议,议员们大为赞成,并且偶尔会对他的证词表示感谢。参议员R-LA乃至向Altman抛出了橄榄枝,问他会不会成心在国会创建的监管机构工作。国会决心监管人工智能,早有预兆。本月初,Altman同谷歌、微软和英伟达的CEO一同在白宫会面了副总统Kamala Harris,讨论了负责任AI的发展。而早在去年,白宫就曾提出「人工智能权利法案」,向业界提出各种要求,比如避免轻视。类比原子弹,建议成立类似国际原子能机构的国际组织
参议员提出,把AI比作原子弹的说法。
而Altman参考世界各国政府监管核武器的做法,提出了组建一个类似于国际原子能机构的机构,来为该行业制定全球规则的想法。OpenAI在未来六个月内不会训练GPT⑸
在4月份Lex Fridman的第2轮访谈中,Sam Altman言之凿凿地说:「我们现在并没有训练GPT⑸,目前只是在GPT⑷的基础上进行更多的工作而已。」
这次听证会上,Altman更是直接承认,OpenAI在未来6个月内,没有训练可能成为GPT⑸的新模型的计划。而这应当意味着,谷歌将在今年晚些时候具有其迄今为止最强大的人工智能系统——Project Gemini。听说,Gemini专为存储和调度等未来创新而设计,不但从一开始就是多模态的,而且在集成工具和API方面效力很高。目前正由新成立的Google Deepmind团队研发。纽约大学心理学和神经科学教授Gary Marcus也出现在了证人席上。
他对Sam Altman发出的发问,可谓「招招致命」。OpenAI成立的主旨不是造福全人类么,如今为何跑去和微软结盟?OpenAI不Open,GPT⑷的训练数据不透明,究竟是几个意思?马库斯总结道:我们具有史无前例的机会,但我们也面临着企业不负责任、广泛部署、缺少适当监管和不可靠的可怕风险曾微软的必应AI悉尼,表现出了一系列使人震惊的行动。「悉尼的问题很大,如果是我,会马上把它从市场上撤下,但微软并没有。」马库斯表示,这件事给自己敲响了警钟——即便是像OpenAI这样的非盈利组织,也可能被大公司买下,然后想做甚么就做甚么。但现在,人们的观点和生活都在潜移默化地被AI塑造和改变,如果有人故意利用AI技术,用于不良的目的呢?「如果让一种技术官僚和寡头政治相结合,那少数公司就能够影响人们的信仰,这是真实的风险所在......让少数玩家使用我们根本不知道的数据来做到这一点,这让我感到惧怕」Altman表示AI界其实不存在垄断
针对一些常见的法律监管方面的问题,看得出来Altman早就胸有成竹,给各位参议员们安排得明明白白的。
参议员说,他对人工智能的「最大耽忧」之一是「这类大范围的企业垄断」。Altman表示,他认为能够制造大模型的企业数量相对较少,反而可能会更加方便监管。例如,大型的生成式 AI,只有少数公司能够制造,但是竞争一直是存在的。给大模型建立法律责任
美国国会 1996 年通过的第 230 条增进了社交媒体的兴起,该条款保护网站免于对用户的帖子承当责任。
Altman认为:大模型现在没有办法遭到230条的法律保护。应当制定新的法律保护大模型不会由于输出内容而承当法律责任。奇妙躲避最致命的问题
奥特曼最初躲避了参议员提出的「AI可能造成最严重的后果」。
但在马库斯友好地提示 Altman 没有回答问题后,这位参议员重复了他的问题。他说,OpenAI 曾试图非常清楚人工智能的风险,这可能会以「很多区别的方式」对「世界造成重大伤害」。他再次阐明。应对这个问题就是OpenAI成立的缘由。「如果这项技术出了问题,它可能会大错特错。」其实,在今年早些时候接受「StrictlyVC」采访时,Altman称人类灭绝是最坏的情况。在听证会快结束时,坐在Altman旁边的马库斯说,「他在谈论恐惧时的诚意非常明显,这类诚意在透过电视屏幕是没法感遭到的。」跟小扎相比,Altman此次听证会的表现十分老练,想来他作为社牛,对与政客们打交道早已游刃有余。毕竟,Altman可是多年前就曾斟酌过竞选加州州长的人物。
而且对照去听证会前由于数据隐私和虚拟货币已「捅了大篓子"的小扎,Altman背后的OpenAI不但几近没有遭到任何公众的指责,或者目前AI领域「万物竟发」局面的最主要首创者。面对一上来就示好,呼吁对AI进行监管的Altman,这些几近都是「技术素人」的立法者自然在这位「权威」眼前会显得温顺和蔼很多。所以一样场合之下,Altman身上的压力与小扎相比完全不是一个数量级。大模型的商业模式
有参议院提出这类担心,如果像互联网社交平台一样,AI产品如果采取广告为主的商业模式,会让操纵性的产品设计和使人上瘾的算法被滥用。但是OpenAI 确切斟酌过在 ChatGPT 不要钱版中投放广告来从其不要钱用户那里赚钱的可能性。参考资料:
https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/
https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai