人类精英呼吁暂停AI实验 ChatGPT:合理但谨慎考虑_区块链:元宇宙

3月29日,非营利组织“未来生命研究所(Future of Life Institute)”发表了一封题为“暂停巨型AI实验”的公开信,呼吁全球的AI实验室暂停训练比GPT-4更强大的系统至少6个月,并在此期间开发出一份针对AI的共享安全协议,必要时需要政府介入。 

1000多名科技人士在这份公开信上签名,包括特斯拉CEO马斯克、Stability AI 的CEO Emad Mostaque等企业掌门人,也包括Alphabet旗下DeepMin的研究人员,还有诸如图灵奖得主Yoshua Bengio这样的重量级学者。当然,也有人表达了不同意见,认为这是在阻碍技术进步。

开发出GPT-4模型的OpenAI公司内还没有人签名,该公司目前也没有对这封公开信予以回应。但我们向卷入纷争中的ChatGPT要了个回应。

这个AI自然语言大模型产品倒是表现出了善解人意的一面:暂停实验存在合理性,但需要谨慎考虑这么做带来的技术发展滞后问题。它还给出了关于AI的六大风险和十个管理制度建议。

人类精英:暂停实验 确立规则

截至今日,挂在“未来生命研究所(FLI)“官网上的《暂停巨型AI实验》公开信,已经收集了1130人的签字,名单里精英云集,不乏特斯拉、苹果等科技公司的高管,也有政客和作家,当年,更多的是全球多所高校的教授以及人工智能领域的专家。??????

V神:不认同主架构师假设,比特币也是由人类设计出的社会系统:5月18日消息,Vitalik Buterin 在回复 Blockstream 首席执行官 Adam Back 的一条帖子中表示,并不认同一个所谓的“大师级架构师的假设”,最初的加密货币(比特币)也是一个由人设计的社会系统。加密货币的支持者认为 Satoshi Nakamoto 的协议是完美的这一事实证明,他们实际上并没有拒绝主架构师假设。 此前,V神表示,尽管他热爱权力下放和民主,但在许多政策问题上,他比普通人更倾向于与知识精英达成一致。[2022/5/18 3:25:06]

那么精英云集签字的这封公开信到底说了什么?以下是这封信的全文(向上滑动启阅)

广泛的研究表明,具有能与人类竞争的智能的AI系统会对社会和人类构成深刻的风险,顶尖的AI实验室也承认这一点。正如广受认可的阿西洛马人工智能原则(Asilomar AI principles)原则所述,高级AI可能代表着地球生命历史的深刻变化,应该以合适的态度和资源去进行规划和管理。不幸的是,这种水平的规划和管理并没有发生。尽管最近几个月AI实验室陷入了一场失控的竞赛,以开发和应用越来越强大的数字思维,然而没有人能够理解、预测或可靠地控制这些思维,甚至他们的创造者也不能。

链道科技李亚南:元宇宙更加高效解决人类发展的内卷问题:12月28日,由链境Labs推出的元宇宙入门级学习产品“元宇宙一卡通”创世班正式开课。开班课程由链道科技创始人、总裁李亚南以《web3.0就是元宇宙1.0》为主题进行授课,详细讲解了web发展史、DAO的兴起等概念,全面说明了数字藏品的发展历程以及对元宇宙各个项目单元的解析。

李亚南认为,元宇宙更加高效解决了人类发展的内卷问题,我们进入了元宇宙1.0时代。元宇宙发展的最大障碍不是技术,而是治理与文明,在元宇宙的世界里我们想要的不是一家公司,而是一个协议,一个任何人都可以贯彻执行的协议,而新兴技术的发展不是为了元宇宙的诞生,但会因为元宇宙而加速。元宇宙的价值来源包括:土地经济、化身形象(数字藏品)、身份系统 (DAS)、即时通讯与场景社交等。

在他看来,作为元宇宙的必选项,数字藏品不仅是一种趋势,更有可能是未来艺术、时尚潮流、音乐的发展方向。虽说数字藏品的概念仍然让人模糊,市场泡沫也一直让人担心,但不可否认的是,数字化技术对人类生活的影响将越来越大。[2021/12/29 8:12:43]

当代AI系统在一般任务上正在拥有与人类竞争的能力,我们必须问问自己:

中央纪委国家监委网站发文《元宇宙如何改写人类社会生活》:12月23日消息,中央纪委国家监委网站于今日发文《元宇宙如何改写人类社会生活》,文中解释了什么是元宇宙,元宇宙为什么能出圈,并且提到要“理性看待元宇宙带来的新一轮技术革命和对社会的影响,不低估5-10年的机会,也不高估1-2年的演进变化”。[2021/12/23 7:59:46]

我们应该让机器在我们的信息渠道中充斥宣传和谎言吗?

我们是否应该自动化所有的工作,包括那些有成就感的工作?

我们是否应该培养出可能比我们数量更多、比我们更聪明、最终超越并取代我们的非人类思维?

我们是否应该冒着失去对我们文明控制的风险?

此类决策决不应该委托给未经选举产生的技术领导人。只有当我们确信AI的效果是积极的,风险是可控的时候,AI系统才应该被开发。这种对AI的判断必须是合理的,并随着系统潜在影响的变化而变化。

OpenAI最近关于人工通用智能(AGI)的声明指出,“在开始训练未来的系统之前,进行独立审查可能很重要。同时对于最前沿的工作而言,人们应该在合适的时间点限制用于创建新系统的计算增长率。我们同意这一说法,并认为现在就是合适的时间点。

声音 | Least Authority首席执行官:数据的可靠性 可信赖性等同于现代人类间的信任:9月12日消息,在近日举行的第四节区块链全球峰会上,Least Authority首席执行官Liz Steininger发表了主题为《安全性和隐私性对区块链技术的意义》的讲话,他表示,数据的可靠性,可信赖性等同于现代人类间的信任。区块链解决的就是人类的共识和信任问题,而现在很多黑客对放在链上的数据进行攻击,无论是个人隐私,还是企业的商业机密。所以公有链需要数据保密的措施。在搭建区块链生态之前,就应该先想到隐私和安全的问题。系统的安全搭建,要先从识别风险、风险发生概率及影响、谁为此承担责任等多方面来考虑。

对新行业也需要建立新标准、新监管。其中关于安全审查主要是对代码进行审查,建立代码安全机制,在黑客攻击前就查找到这些潜在威胁。另外对隐私安全完备的保护对社区也是一个很大的鼓舞。[2018/9/12]

因此,我们呼吁所有的AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。这种暂停应该是公开的和可核实的,所有关键的参与者也能暂停相关工作。如果这种暂停不能迅速开始,政府应该介入并实施暂停。

AI实验室和独立专家应利用这一暂停的时段,共同开发一套AI设计和开发的共享安全协议,这些协议需要由独立的外部专家严格审计和监督。这些协议应确保所有遵守它们系统的AI是安全的。这种暂停并不意味着总体上暂停AI开发,只是让人们从具有新兴功能的、不可预测的危险竞赛中后退一步。

现场 | 国家电子商务基地首席研究员:区块链展现了崭新的人类文明生产关系:在“2018链动亚洲区块链峰会”现场,国家电子商务基地首席研究员、贵州·黔南区块链技术应用研究院技术创新委员会副主席、贵州师范大学经管院主任吴亮教授表示,区块链技术被认为是继蒸汽机、电力、互联网之后,下一代颠覆性的核心技术。区块链甚至带来一种新的商业文明 ——“区块链经济”,从传统基于熟人之间信任关系的合作网络,变成基于透明规则的开放式的合作。这种新商业规则有别于传统,因为它允许任何规模的商业机构创造一个完全可信和被完整执行的规则体系,扁平化了大小机构构造商业信任的能力差距。他还提到物联网技术与区块链的融合是未来区块链发展的主要方向。[2018/7/15]

AI的研究和开发应该重新聚焦于使当今强大、最先进的系统更加准确、安全、可解释、透明、稳健、一致、可信和可靠。

与此同时,AI开发人员必须与政策制定者合作,大幅加快强大的AI管理制度的开发。管理制度至少应包括以下内容:

?针对AI的新的、有能力的监管机构;

?监督和跟踪能力强大的AI系统和计算能力池;

?帮助区分真实和合成数据的溯源、水印系统,并跟踪模型泄露;

?提供健全的审计和认证生态系统;

?对AI造成的损害进行责任认定;

?为AI技术的安全研究提供充足的公共资金;

?资源充足的机构以应对AI将造成的巨大经济和破坏(尤其是对民主的破坏)。

人类可以通过AI享受一个繁荣的未来。在成功创建了强大的AI系统后,我们现在可以享受一个“AI之夏”。

在这个AI的夏天,我们可以收获回报,为所有人的利益设计这些系统,并给社会一个适应的机会。人类社会曾经暂停使用一些可能会对社会造成灾难性影响的技术,我们现在也可以在AI领域这样做。让我们享受一个漫长的AI之夏,不要在没有准备的情况下匆忙进入秋天。

事实上,这封公开信是近期人类精英们对人工智能风险担忧的总爆发。自 ChatGPT 高速迭代后,担忧从未停止,特别是当微软、谷歌、百度、华为等科技巨头们在自然语言模型上展开“军备竞赛”之后。

日前,“深度学习之父”杰弗里·辛顿(Geoffrey Hinton)在媒体采访中表示,人工智能正处于“关键时刻”,毁灭人类“并非不可能”。AI领域内的“大牛”盖瑞·马库斯(Gary Marcus)发推特支持辛顿,甚至发出灵魂一问:“用百分之一的人类毁灭风险换取和机器对话带来的乐趣,这值得吗?”

而马库斯在转发FLI这封公开信时表示,“这封信并不完美,但精神是正确的。我们需要放慢脚步,直到我们更好地理解AI带来后果……他们可能会造成严重伤害……主要参与者对他们正在做的事情越来越保密,这使得社会很难抵御可能发生的任何伤害。”

也有科技圈人士对这封信的观点持不同意见。

Writer的创始人Waseem 以讽刺的语气表达了他对权威们的不满,“让我们停止建设和发展我们的公司,因为来自硅谷的亿万富翁说我们有风险。一定要喜欢那些比我们人类更聪明的人,因为他们告诉我们如何生活。当我们有他们神圣的指引时,谁还需要进步?” 

OSS Capital的创始人Joseph Jacks 态度更是简洁明了:强烈反对,绝对不签这个。

 ChatGPT:暂停合理但小心阻滞技术

目前,OpenAI 还没有就 FLI 的这封公开信做出回应。而我们把人类精英们的担忧与建议甩给了ChatGPT,引发这场纷争的这个对话机器人不但认可了FLI要求暂停实验的合理性,还补充了六大AI风险。

ChatGPT的答案中也包含了暂停实验带来弊端:导致技术发展的滞后。这也和舆论场上很多普通大众的想法趋同。????????????????????

那么,问题摆在眼前,如果要让研究人员和政府制定规则,该包含哪些内容呢?ChatGPT给出了十大建议,相当于给包括自己在内AI发展画了一个规范圈。

连ChatGPT自己都这么说了,可见,“AI失控”、”替代人类“无论是在意见领袖圈层还是舆论场上都有探讨的意义。

最近,微软的创始人比尔·盖茨在大力肯定人工智能带来生产力提升的同时,也强调过风险,“AI失控的可能性是存在的,一台机器会认为人类是自己的威胁吗?它们会得出结论认为自身利益与人类的利益不同进而不在意我们吗?” 他预测,随着算法、算力的提升,超级智能AI会在未来出现。

连 OpenAI 的CEO Sam Altman都表示,超级智能AI的风险可能会远远超出我们的预料。此前,他在技术研究员Lex Fridman的播客中表达他的担忧,包括AI造成的虚假信息问题,带来的经济冲击等等,“危害可能远远超过了人类能应对的程度”,他举了个例子,“我们怎么会知道,大语言模型没有在推特上指挥大家的思想流动呢?”

这正应了那封公开信中所说的:没有人能够理解、预测或可靠地控制这些数字思维,“甚至他们的创造者也不能”。

虽然通用人工智能(AGI)还远远没有到来,但就像比尔·盖茨说得那样,在这之前,世界需要建立规则以使AI带来的正面影响远远超过其负面影响。

换句话说就是,别让人类造出的东西把人类自己灭了。毕竟,战争、核事故带来的灾难还历历在目。

蜂巢Tech

个人专栏

阅读更多

金色财经 善欧巴

金色早8点

白话区块链

欧科云链

Odaily星球日报

Arcane Labs

MarsBit

深潮TechFlow

BTCStudy

链得得

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:46ms0-7:643ms