OpenAI风波后,AI安全发展与监管何去何从?
OpenAI风波
2023年,OpenAI的戏份很足。3月份时,ChatGPT4.0亮相,惊艳到了全世界,一时间大家纷纷尝试让ChatGPT写小作文、编代码,及至咋舌ChatGPT偶尔会胡编乱造一通的做派。众多软件科技公司更是紧跟潮流,卯足了劲开发各种应用的大语言模型。OpenAI带动了人工智能的一轮新高潮。
时至11月,Open AI再次震惊了全世界。公司董事会突然宣布CEO奥特曼去职。之后,局势反转再反转,OpenAI员工集体威胁辞职,微软马上伸出橄榄枝愿意整体接收,最终一周之后,奥特曼重返CEO的位置,董事会大改组,被认为是CEO罢免事件推手力量的公司首席科学家苏茨克弗也不再任董事。OpenAI的大风波暂时平息。
一个有意思的事情是,奥特曼虽然恢复CEO职位,却并没有回到董事会,而OpenAI的治理结构独特,董事会是最高决策机构。
奥特曼为何遭罢免?OpenAI是这样官宣陈述的——“董事会经过深思熟虑的审查程序”,奥特曼“与董事会的沟通中没有始终坦诚,阻碍了其履行职责的能力。董事会不再对他继续领导OpenAI的能力充满信心”。
同一时间段,据悉OpenAI某位高管在给员工的沟通信中表示,奥特曼并没有渎职行为,在公司财务、业务、安全或隐私等方面也没有失误。奥特曼回归后,关于其免职事件,OpenAI公司仍要开展内部调查。
追求速度还是安全?
OpenAI事件一番戏剧性地演进,将一个人从幕后推到了大众的瞩目中,连带他推崇的重要主张。这个人就是前文提及的,OpenAI首席科学家苏茨克弗,他同时是OpenAI的联合创始人。
尽管ChatGPT4.0走红后代表OpenAI在媒体上频频露脸的是CEO奥特曼,但事实上苏茨克弗才是ChatGPT的核心发明人,攻克了AI重要的技术难题,被业界称为“ChatGPT之父”。
苏茨克弗出生于前苏联,持以色列和加拿大的国籍。他是深度学习领域的专家。苏茨克弗在读博士期间师从图灵奖得主, 有“人工智能教父”之称的杰弗里·辛顿(Geoffrey Hinton)。
在OpenAI所处的加州硅谷地区,对于人工智能的发展有两派相反的观点。
一派希望全速推动人工智能的发展,认为随着技术进步,相关的社会问题会自然而然地得到解决,这在历史上多次证明,所以不必多担忧。用中国的俗语来说,就是“船到桥头自然直”。
另有一派,则主张在AI程序向社会公开之前,先要在实验室进行彻底测试,特别是生成式人工智能。
苏茨克弗是后一派观点的代表人物。
苏茨克弗比较近期的公众演讲,包括今年3月份他接受英伟达CEO黄仁勋的采访,和今年10月他的TED演讲。在演讲中,苏茨克弗直白地表示,AI将会发展达到人类的智能水平,进而超越人类智能,比人更聪明。他抛出一个深刻的问题:比人类更聪明的人工智能,将会怎样对待人类?
苏茨克弗每每演讲,都显得边讲边在沉思。他不苟言笑,却观点犀利,表达清晰。
与人类的“生物大脑”相对照,苏茨克弗称人工智能是处在计算机系统中的“电子大脑”。“电子大脑”的优势在于能够充分全面地占有信息,在此基础上,推导结果。
苏茨克弗习惯于以人和动物的关系,来类比将来通用人工智能(AGI)与人类之间或将存在的关系。他反复地会问观众,AI会爱人类吗?AI会像今天人类对待动物那样来对待人类吗?公开演讲时,苏茨克弗频频穿着带动物图案的T恤出镜头,似乎为了加强他的观点。
苏茨克弗向听众介绍,他之所以在2015年联合创办Open AI,出发点正是为了在推动AI发展的进程中,妥善解决AI和社会的问题。
AGI通用人工智能,何为“通用”?
Artificial General Intelligence中文译为“通用人工智能”。其实,这个中文翻译并没有准确地传达意思。
General是相对Special而言的。在AI的这个语境下,人工智能机器人先后打败了人类的国际象棋大师、围棋大师、实现了蛋白质结构预测的重大突破等等,这些赫赫成绩反映了AI智能的某个 (special) 方面,或者说是单项考评的成绩。
而AGI指的是在综合考评上AI全面地达到乃至超过人类智能的那个时刻,用通俗的话来说,就是“全面碾压”。所以,用“综合人工智能”或“全面人工智能”翻译AGI,似乎更加提挈。
AGI目前尚未实现,但是正在向人类走来。OpenAI在其公司网页上预期,十年内,AGI会被实现。按人工智能成果的此起彼伏来看,十年不知道是不是一个保守的时间估计。
此外还有一个AI名词,Generative AI,中文翻译是“生成式人工智能”。为什么称generative(生成),而不是creative(创作)?造词者大概是考虑到目前的知识产权法律框架体系并不承认AI作为发明创作的主体,不赋予AI创作的主体资格。
但是,从价值的角度来衡量,AI大语言模型生成的段落、文章以及图片是否具备文化价值?人是否乐意花时间去阅读乃至欣赏?认为AI作品是生成的而非创作的,这样的界定更多来自于人类对待人工智能的主观态度。但是,一旦AGI实现,其“生成”的作品例如出品的小说超出人类作家的水准,是否有必要开放创作发明的主体资格,延及AI?还是另外新辟AI-IP这个权利范畴?
OpenAI的Q*项目之谜
奥特曼究竟为什么被董事会罢免?官宣中提到奥特曼没有和董事会坦诚沟通,言下之意是他背着董事会秘密地干了些什么。敏锐的记者们在努力揭秘。
据路透社等几家媒体的报导,奥特曼在公司内部大力推进Project Q*项目,很可能是他被免职的重要原因。
据称,Project Q*的研究将AI的智能水平又推上了一个新的高度。AI将不仅能基于统计学的能力,在占有信息和数据的基础上做预测,生成文字和图片,还掌握了数学推理的能力。前者不一定有一个标准答案,而数学的答案是唯一的。
OpenAI的治理结构,采取了非盈利机构控制下属盈利公司的模式,其最初的意愿正是希望AI的研究发展不受制于资本的影响。OpenAI的首席科学家苏茨克弗更是积极倡导AI发展要顾及人类安全的大命题,安全谨慎地推进AI研究。
ChatGPT4.0发布后,苏茨克弗在今年四五月期间提出了OpenAI内部的一个名为“超级对齐(Super-alignment)”的项目,据说调动了占OpenAI五分之一的内部资源,着重于AI与安全的研究。
根据路透社及其他媒体调查后所推断,CEO奥特曼并没有太重视AI带来的安全担忧,而是继续大力推进人工智能的商业化,由此触发了他被免职的一幕。
基辛格博士参与撰写的畅销书:The Age of AI
The Age of AI被福布斯杂志评选为2022年“当年最畅销的10本技术类书籍之一”,该书由基辛格博士及两位技术领域的顶尖专家共同撰写。书中指出,在人类发展的历史长河中,推理是人类高度珍视,或者说是引以为傲的一项重要能力。
如果人工智能突破推理的障碍,从而拥有了与人类相当的推理能力,甚至超越了人类的推理能力,那么这是否意味着人类对自身能力将产生怀疑?作者们认为,定义AI能力的同时,也意味着重新来定义人类的能力乃至人类的地位。
对AI将威胁人类安全的担忧
追溯到2015年,霍金、马斯克以及多名人工智能专家已经联名签署了公开信,呼吁重视人工智能将带来的社会影响,并展开认真的研究。公开信特别指出,人工智能虽然将带来非常多的好处,甚至消除疾病和贫困,但要警惕人工智能趋向于不安全和不可控的态势。
近年来,随着AI威力的持续升级,有关AI很可能带来安全威胁的担忧也不断被放大。ChatGPT4.0推出后,马斯克等上千名科技界人士发表公开信,提议所有人工智能实验室立即暂停训练比ChatGPT4.0更强大的人工智能系统至少六个月。
当苏茨克弗的导师、人工智能教父辛顿被记者采访时问及人工智能是否会消灭人类,他回答:“我认为这并非不可想象。我只能说这些。”这话听着,是不是让人感到后脊发凉?
硅谷是人工智能研究的前沿,也大概是有关人工智能与人类安全问题争论最多的地方。像苏茨克弗这样的顶级科学家在担忧AI对人类可能带来的不可挽回的影响,也有大量的富豪捐款投入在有关AI与安全问题的研究上。
有效利他主义(effective altruism)是其中一种代表性的思潮,关心远方最贫穷的人,关心子孙后代的生活环境,关注科技对人类的影响尤其是AI对社会的影响,考察如何定量评估干预产生的效果,利他的同时达成利己。
回到本文开篇提到的奥特曼被免,OpenAI董事会大改组,对普罗大众来说,这场戏剧性事件除了能为八卦谈资增加题材,更向大众揭开了AI与安全这个命题的面纱。由陌生到开始了解,从有所了解到更深入地探究,OpenAI风波好比是向大众启蒙AI安全问题的重要与迫切,这也是这个事件产生的积极社会影响。
AI监管及国际合作
近几年来,中国、欧盟、美国等全球的主要国家和地区,有关AI监管都出台了一系列法律法规,主要涉及隐私保护、数据安全、防范AI的武器化应用、算法反歧视等方面。这些都是重要问题,但不得不说,更重要的问题在于:AI一旦演进成为超级智能,将在多大程度上影响人类安全本身?或者说,人类是否可以持续保有对AI的控制权?
令人欣慰的是,今年11月初在英国召开了人工智能安全峰会,包括中国在内超过25个国家的政府代表和科技界人士参加。参会成员国同意以国际合作的途径,建立人工智能的有效监管方法。尽管这看着是一个松散的非正式的合作模式,但是合作好过不合作,中国参与其中也可以争取到发言权和交换意见的渠道。
可以说,人工智能的风险和对人类可能产生的根本性的影响,其重要性和后果一点都不逊于碳排放等问题,可以说有过之而无不及。正如代表中国参会的科技部副部长吴朝晖所指出的,人工智能的治理攸关全人类的命运,是世界各国面临的共同课题。
耐人寻味的是,在英国AI峰会后发布的全体与会国家宣言中,特别强调的一点是各国要加强合作,识别、理解AI带来的风险,并采取适当的行动。宣言进一步指出,需要加深对于潜在风险的理解。从这些字里行间透露出来的信号是,AI迅猛发展,各国政府承认看不清楚其前景。
马斯克也参加了这次峰会,他对记者表示,在监管AI之前,必须要有洞察力。换言之,风险扑朔迷离,首要步骤是清晰识别和理解风险。
而识别和理解AI风险,需要政府和科技界紧密合作,后者向前者介绍AI的发展状况和风险,帮助政府了解和理解,进而制定规范,调动资源,有效监管。如此才谈得上有效控制风险,指导科技界负责任地开发和部署人工智能。
本文来自微信公众号:秦朔朋友圈 (ID:qspyq2015),作者:王音(平台技术公司全球总法律顾问,美国执业律师)
相关推荐
闹剧过后,OpenAI和微软何去何从?
全球首届AI安全峰会,监管与创新的博弈场
OpenAI CEO出席美国国会听证会:对待AI应该参考核武器的监管方式
Ilya Sutskever:OpenAI“叛变者”的恐惧与信念
拆解生成式AI首部新规:监管、边界与平衡
OpenAI宫斗中被忽略的一部分:AI对齐
美国发布最全AI监管原则,剑指主导全球AI发展格局
担忧AI向人类扔核弹,OpenAI是认真的
OpenAI“政变”:没有杀死,安全加速,会更强大
马斯克硬刚OpenAI,殃及池鱼
网址: OpenAI风波后,AI安全发展与监管何去何从? http://www.xishuta.com/newsview103241.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 94837
- 2人类唯一的出路:变成人工智能 18304
- 3报告:抖音海外版下载量突破1 17856
- 4移动办公如何高效?谷歌研究了 17572
- 5人类唯一的出路: 变成人工智 17409
- 62023年起,银行存取款迎来 10014
- 7网传比亚迪一员工泄露华为机密 8007
- 8顶风作案?金山WPS被指套娃 6471
- 9大数据杀熟往返套票比单程购买 6446
- 1012306客服回应崩了 12 6376