OpenAI用GPT-4解读GPT-2,看来能打败魔法的,只有魔法_WEI:UND

来源丨元宇宙简史

作者丨元宇宙简史编辑Eco

OpenAI最新研究利用GPT-4自动进行大语言模型中神经元行为的解释和评分,并将其应用于另一种语言模型GPT-2,公开了这些GPT-2神经元解释和分数的数据集。这项技术让人们能够利用GPT-4来定义和自动测量AI模型的可解释性,从而更好地理解智能是如何工作的。

大语言模型是基于大量文本数据训练,包含数千亿或更多参数的语言模型。

在大数据时代,这类AI机器学习模型可以在提升产品销售、辅助人类决策过程中起到很大的作用。

但是计算机通常不会解释它们的预测结果,而语言模型想要变得更强大、部署更广泛,就需要研究可解释性,因为人类对模型内部工作原理的理解仍然非常有限,例如可能很难从中检测到有偏见、性内容输出。

OpenSea原政策主管于4月离职,团队曾在5月进行小规模重组:7月7日消息,据The Information报道,此前担任OpenSea政策主管Loni Mahanta已于4月份离职,目前正在寻找新的高级政策和政府事务主管。OpenSea在5月份也进行了小规模重组,导致大约10名员工离职。[2023/7/7 22:23:09]

可解释性就是将模型能用通俗易懂的语言进行表达,把模型的预测过程转化成具备逻辑关系的规则的能力,从而通过查看模型内部来发现更多信息。

例如,如果有一个针对“漫威超级英雄”的神经元,当用户向模型提问“哪个超级英雄的能力最强”时,这个神经元就会提高模型在回答中说出漫威英雄的概率。

ChatGPT的创建者OpenAI正在就以290亿美元的估值进行收购要约谈判:1月6日消息,知情人士透露,AI聊天机器人ChatGPT的创建者OpenAI正在谈判以收购要约的形式出售现有股票,该公司的估值将达到290亿美元左右,较2021年的140亿美元翻倍,尽管其收入很少,仍使其成为账面估值最大的美国初创公司之一。上述知情人士说,风险投资公司Thrive Capital和Founders Fund正在就该投资进行谈判,该交易将以股票出售的形式完成,总额至少为3亿美元。该交易的结构为收购要约,投资者从OpenAI的员工等现有股东手中购买股票。(华尔街日报)[2023/1/6 10:24:31]

站在OpenAI的角度看,大模型未来将和人脑一样拥有“神经元”,这些神经元会观察文本中的特定规律,进而影响到模型本身生产的文本。

所以可解释性就是将模型能用通俗易懂的语言进行表达,把模型的预测过程转化成具备逻辑关系的规则的能力,从而通过查看模型内部来发现更多信息。

OpenSea首席财务官:声称OpenSea的交易量自5月以来下降了99%是错误的:金色财经报道,OpenSea首席财务官BKRoberts在社交媒体上称,昨天财富杂志发表了一篇报道,声称OpenSea的交易量自5月以来下降了99%。框架、方法和来源是错误和不公平的。虽然他们已经更新了故事,但该错误引发了加密报告中的责任问题。缺乏责任感令人震惊,所以我要强调《财富》选择忽略的背景:他们用一天的时间来衡量变化。展示了他们的“分析”是多么荒谬。他们在 5 月挑选了一天,比3/1和6/30之间的平均值高6倍。我也鼓励《财富》杂志进行更好的研究并找到更可靠的来源。他们声称我们一天就赚了27亿美元。这意味着每年的运行速度为1万亿美元。有这么幸运吗?

此外,BKRoberts称,更广泛的加密空间总是会起起落落,但围绕NFT的兴趣和兴奋仍然存在。现在还是第1天。[2022/8/31 12:58:58]

为了实现这个目标,OpenAI最近发布了一个关于GPT-4语言模型解析神经元的对齐性研究成果,利用自研基于GPT-4技术的开源工具,来尝试计算其他架构、更简单语言模型上神经元的行为并对其进行评分。

ENS域名defi.eth以40ETH的价格在OpenSea上成交:2月18日消息,ENS 域名 defi.eth 以 40 ETH的价格在 OpenSea 上成交。此外,买方地址下还持有超过 50 万枚 Swarm Token BZZ 和 7 万 5 千枚 Indexcoop Token INDEX。

此前报道,电商巨头 Shopify 首席执行官 Tobi Lütke 以 30 ETH 价格购买 tobi.eth ENS 域名。[2022/2/18 10:00:14]

而且,还可以将其应用于另一种语言模型中的神经元——本次选择4年前发布、包含307200个神经元的大模型GPT-2为实验样本,公开了这些GPT-2神经元解释和分数的数据集。

以太坊客户端OpenEthereum已开始部署EIP-1559的实施:3月16日消息,以太坊客户端OpenEthereum已开始部署EIP-1559的实施。[2021/3/16 18:50:44]

“我们迈出了使用AI进行自动化对齐研究的重要一步。”OpenAI联合创始人GregBrockman表示。

具体来说,OpenAI开发了一套包含自动化工具和测试方法的评估流程:

首先,研究人员让GPT-2运行文本序列,等待某个特定神经元被频繁“激活”;

然后,让GPT-4针对一段文本生成解释,例如通过GPT-4接收到文本和激活情况判断漫威是否与电影、角色和娱乐有关;

随后用GPT-4模拟GPT-2的神经元接下来会做什么,预测行为;

最后评估打分,对比GPT-4模拟神经元和GPT-2真实神经元的结果的准确度,在下图这个例子中,GPT-4的得分为0.34。

使用上述评分方法,OpenAI开始衡量他们的技术对网络不同部分的效果,并尝试针对目前解释不清楚的部分改进技术。例如,他们发现以下方式有助于提高分数:

-迭代解释。他们可以通过让GPT-4想出可能的反例,在根据其激活情况修改解释来提高分数;

-使用更大的模型来进行解释。随着解释模型能力的提升,平均得分也会上升。然而,即使是GPT-4给出的解释也比人类差,这表明还有改进的余地;

-改变被解释模型的架构。用不同的激活函数训练模型提高了解释分数。

OpenAI表示,他们正在将GPT-4编写的对GPT-2中的所有307,200个神经元的解释的数据集和可视化工具开源,同时还提供了OpenAIAPI公开可用的模型进行解释和评分的代码,从而希望学术界能开发出新的技术来提升GPT模型解释分数。

OpenAI还发现,有超过1000个神经元的解释得分至少为0.8分,这意味着GPT-4模型可以解释大部分人类神经元,同时目前GPT理解的概念似乎和人类不太一样。例如,他们发现了一些有趣但GPT-4并不理解的神经元。

这些神经元似乎对文本中的某些特征或模式有敏感度,但是GPT-4无法用简单的语言描述它们。OpenAI希望随着技术和研究方法的改进,进一步提高AI模型可解释性能力,从而更好地理解这些神经元的行为和意义。

对于本研究局限性,OpenAI表示,目前GPT-4生成的解释还不完美,尤其要解释比GPT-2更大的模型时,表现效果很差。

神经元复杂行为无法用简短的自然语言描述,OpenAI解释了神经元的这种行为,却没有试图解释产生这种行为的机制,而且整个过程算力消耗极大等。

OpenAI希望在未来的工作中可以解决上述这些问题,最终OpenAI希望使用模型来形成、测试和迭代完全一般的假设,从而比肩人类大脑的想法和行为,以及将其大模型解释为一种在部署前后检测对齐和安全问题的方法。

然而在这之前,OpenAI还有很长的路要走。

“我们希望这将开辟一条有前途的途径。”JeffWu表示,这一技术可以让其他人可以在此基础上构建并做出贡献的自动化方案,从而解决AI模型可解释性问题,很好地解释这些模型行为,比如AI如何影响人类大脑中的神经元等。

严正声明:本文为元宇宙简史原创,未经授权禁止转载!内容仅供参考交流,不构成任何投资建议。任何读者若据此进行投资决策,风险自担。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:15ms0-6:843ms