人类生成 or 机器生成?ChatGPT 引发了一场真假辩论_MET:METAD价格

原文:英国《金融时报》

像ChatGPT这样的大型语言模型是合理性的提供者。许多聊天机器人基于所谓的生成式人工智能,经过训练可以通过在互联网上搜索相关信息并收集连贯的答案来回答用户的问题,从而生成令人信服的学生论文、权威的法律文件和可信的新闻报道。

但是,由于公开可用的数据包含错误信息和虚假信息,一些机器生成的文本可能不准确或不真实。这引发了人们争相开发工具来识别文本是由人还是机器起草的。科学也在努力适应这个新时代,现场讨论是否应该允许聊天机器人撰写科学论文,甚至产生新的假说。

区分人工智能和人类智能的重要性与日俱增。本月,瑞银分析师透露,ChatGPT是历史上增长最快的网络应用程序,1月份每月活跃用户达到1亿。一些部门已经决定没有必要锁住稳定的大门:周一,国际文凭组织表示,学生将被允许使用ChatGPT撰写论文,前提是他们注明引用了它。

声音 | 孔剑平:区块链的混合计算会成为人类重要的资产类别:12月18日,创业邦100未来商业峰会暨2019创业邦年会在北京举行。嘉楠耘智联席董事长孔剑平发表题为“区块链开启数字经济新时代”的主题演讲。他认为,新的经济增长点越来越凸显,数字经济会成为未来经济的主要增长动力,区块链可能是非常好的一个机会。孔剑平表示,区块链的混合计算会成为人类重要的资产类别,区块链的计算不只是计算比特币,还可以计算世界上所有需要计算的东西。现在的公司都是以万亿美金为最高门槛,而在区块链和人工智能这个新的数字时代,可能十万亿美金会成为一个新的标配。区块链真正把人类的价值文明和数字文明构建起来了,未来一切都来源于矿机,矿机是硅基文明的奠基者。[2019/12/19]

平心而论,这项技术的创造者坦率地指出了它的局限性。OpenAI首席执行官萨姆奥特曼(SamAltman)去年12月警告说,ChatGPT“在某些方面足够出色,足以给人一种伟大的误导印象”。我们在稳健性和真实性方面还有很多工作要做。”该公司正在为其内容输出开发加密水印,这是一种机器可读的秘密标点符号、拼写和词序序列;并且正在磨练一个“分类器”来区分合成文本和人工生成的文本,使用两者的例子来训练它。

声音 | 云计算巨头VMware CEO:比特币是糟糕的设计对人类有害 但对区块链技术本身持中立态度:据Cointelegraph今日消息,8月26日,云计算巨头VMware首席执行官Pat Gelsinger在接受媒体采访时谴责比特币“对人类不利”。Pat Gelsinger表示,比特币的一个问题是其能源消耗高,导致了气候变化。在比特币账簿上做一个简单的录入,需要一个家庭所需的能量,这对气候不友好,是糟糕的设计。Pat Gelsinger还声称,人们主要使用比特币进行非法活动,总的来说,它“对人类有害”。据悉,Pat Gelsinger对区块链技术本身保持中立,相反,他认为比特币是对该技术的滥用。[2019/8/27]

斯坦福大学的研究生EricMitchell认为分类器需要大量的训练数据。他与同事一起提出了DetectGPT,这是一种发现差异的“零样本”方法,这意味着该方法不需要事先学习。相反,该方法会自行启动聊天机器人,以嗅探出自己的输出。

声音 | 凯·塞奇威克:金融封锁对人类不利但对比特币有利:据bitcoin消息,加密货币评论员凯·塞奇威克(Kai Sedgwick)今日刊文指出,2010年12月7日,美国银行、Visa、万事达卡、贝宝和西联汇款等传统金融机构对维基解密进行封锁。2011年夏,维基解密转向BTC,第二年就有大量BTC转入它的钱包。维基解密以来,抗审查的加密货币就为那些被全球金融体系排除在外的人提供了一条生命线。不仅有像亚历克斯·琼斯(Alex Jones)这样可疑的阴谋贩子,还有那些陷入财务困境的普通民众。但是,十个有罪的人交易比一个无辜的人受苦要好。金融封锁对人类不利,但对比特币有利。传统金融机构审查越严格,它就越强大。[2018/9/22]

它是这样工作的:DetectGPT询问聊天机器人它对示例文本的“喜欢”程度,“喜欢”是示例与其自己的创作有多相似的简写。DetectGPT然后更进一步——它“扰乱”了文本,稍微改变了措辞。假设是聊天机器人在“喜欢”更改后的人工生成文本方面比更改后的机器文本更具可变性。研究人员声称,在早期测试中,该方法在95%的时间内正确地区分了人类和机器作者。

需要注意的是:这些结果尚未经过同行评审;该方法虽然优于随机猜测,但在所有生成式AI模型中的工作可靠性并不相同。对合成文本进行人为调整可能会愚弄DetectGPT。

这一切对科学意味着什么?科学出版是研究的命脉,将想法、假设、论据和证据注入全球科学经典。一些人很快就将ChatGPT作为研究助理,一些有争议的论文将AI列为合著者。

Meta甚至推出了一款名为Galactica的科学专用文本生成器。三天后它被撤回了。在它被使用的这段时间,构建了一段熊在太空旅行的虚构历史。

Tübingen的马克斯普朗克智能系统研究所的迈克尔·布莱克教授当时在推特上表示,他对Galactica对有关他自己研究领域的多项询问的回答感到“困扰”,包括将虚假论文归咎于真正的研究人员。“在所有情况下,都是错误的或有偏见的,但听起来是正确和权威的。我认为这很危险。”

危险来自于看似合理的文本滑入真正的科学提交,用虚假引用充斥文献并永远歪曲经典。《科学》杂志现在完全禁止生成文本;《自然》杂志则允许使用它,前提是必须对使用进行了声明,但禁止将其列为共同作者。

话又说回来,大多数人不会查阅高端期刊来指导他们的科学思维。如果狡猾的人如此倾向,这些聊天机器人可以按需喷出大量引用伪科学,解释为什么疫苗不起作用,或者为什么全球变暖是个局。在线发布的误导性材料可能会被未来的生成人工智能吞噬,产生新的谎言迭代,进一步污染公共话语。

贩卖怀疑的商人肯定已经摩拳擦掌,迫不及待了。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:15ms0-6:399ms