创客100
当前位置: 主页 > 人工智能 > >> 正文

恒小花:独特架构是否能管住AI人工智能

2023-12-18 15:22 来源:未知     

  根据此前消息,奥特曼的辞退闹剧很可能源于一封来自OpenAI员工的匿名信件。信中提到,OpenAI最新研发的新型人工智能大模型“Q-star”取得了突破性进展,人工智能拥有了解决数学问题的能力。研究人员认为,当人工智能掌握了只有唯一正确答案的数学运算,这就意味着人工智能将具备更接近人类的推理能力。与只能执行有限运算的计算器不同,人工智能如果能够进行泛化学习和理解,就可以独自解答完全陌生的数学题目。就像人类通过学习数学课本上的例题之后,会自己做题一样。这意味着,人工智能可以在最具经济价值的任务中超越人类的自主系统,而这可能对人类产生威胁。

  这封警告信,或许正是董事会严厉指责“奥特曼对董事会不坦诚”,并解雇奥特曼的导火线之一。

  这次解雇风波的发起人,OpenAI首席科学家伊利亚·萨克斯维尔,是OpenAI董事会中绝对意义上的技术担当。

  在一部纪录片中,面对镜头,伊利亚对人工智能技术的发展无比乐观,认为OpenAI正在创造的是一个具有独立资格、完全自主的存在。但是在片子结尾,他不无担忧地说:“未来对人工智能而言是美好的,如果对人类来说也是如此就好了。”出于审慎态度,此前伊利亚还专门成立了一个团队研究,如何防止人工智能系统运行异常。

  从ChatGPT横空出世,到被普遍认为相当无敌的GPT4问世,大模型的进步肉眼可见,此前OpenAI更是高调地推进技术落地。但奥特曼越亢奋,伊利亚就越焦虑,对他来说OpenAI的激进做法,似乎离最初用人工智能造福人类的信仰越来越远。

  条条大路通罗马,但通往人工智能造福人类的路到底选哪条?奥特曼选择全速前进,而伊利亚显然更加关注人工智能的安全性。激进的技术路线是否会有隐患?这是伊利亚的担忧,也是他要“赶”奥特曼离开的底层动机。

  2014年,谷歌以6亿美元的价格收购了当时业内最顶尖的人工智能研究机构DeepMind,之后推出了惊艳世人的AlphaGo。对此,一些人工智能领域中坚人士看到了人工智能的潜力和威胁,他们害怕谷歌会成为垄断人工智能的权力霸主。其中6位来自硅谷的科技梦想家聚在一起,决定成立一家不受任何公司、任何资本、任何人控制的人工智能实验室,希望探索出一条以安全方式构建人工智能的正确路径。

  2015年底,非营利组织OpenAI正式成立。其目标明确而又雄心勃勃:开发能够造福全人类的“通用人工智能”。初期,OpenAI完全依靠捐赠维持组织运转,并承诺向公众开放其专利和研究。这是OpenAI的起点与初心,可是这个非常理想主义、非常“乌托邦”的组织,很快遇到了“经济危机”。

  2018年,OpenAI的创始人之一和“大金主”埃隆·马斯克宣布退出董事会。在马斯克离开之后,他尚未兑现的捐赠,将OpenAI一下推到了一个非常不利的境地。

  彼时OpenAI的艰难处境让奥特曼对非营利组织的模式产生了动摇,转而探索更现实的商业路线。

  在人工智能的研发初期,你很难找到反对发展这项技术的论据,但随着人工智能的演进,它的阴暗面逐渐显现。自然语言处理和机器学习被用于社交媒体、搜索和推荐引擎,扩大了信息的两极分化、偏见和错误。

  甚至,“速度与安全”并不是唯一让人工智能领域的专家们感到威胁的问题。更多的人在担忧另一件更棘手的事情:人工智能正在操纵人类,人工智能将发挥更难以想象的巨大力量来操纵人类的无意识。

  但问题是,人工智能该与什么样的人类目标保持一致?OpenAI的一系列风波充分证明了,即使是极少数OpenAI领导者之间的目标也是不可能一致的。

  面对注定相互冲突的目标,放缓人工智能的研究,让技术的子弹飞一会儿,或许是一种解题思路。

  在超越人类智慧的人工智能这条“恶龙”真正出笼之前,每个人都认为自己有资格驾驭它。但无论是“奥特曼”还是“伊利亚”,谁都无法笃定地说,自己选择了正确的道路。毕竟,“人类的判断总会受限,真理只能在不断延续中显现。”

免责声明: 创客100遵守行业规则,本站所转载的稿件都标注作者和来源。 创客100原创文章,请转载时务必注明文章作者和来源“创客100”, 不尊重本站原创的行为将受到创客100的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:admin@100tmt.com