0代码微调大模型火了,只需5步,成本低至150块_MONSTER:Fermat Capital Management

明敏发自凹非寺量子位|公众号QbitAI

0代码微调一个大模型,成本不到20美元?

过程也非常简单,只需5步。

如LLaMA、GPT、StableLM等爆火的开源生成式模型,都能搞定。

这就是MonsterAPI,一个最新火起来的API平台。

有人觉得这个开源领域的新工作,能改写AI开发的游戏规则,加速AI应用的速度。

Arbitrum链上累计锁定ERC-20代币总价值突破90亿美元:金色财经报道,据Dune Analytics最新数据显示,以太坊Layer2网络Arbitrum链上ERC-20代币累计锁仓总价值已突破90亿美元,本文撰写时达到90.65亿美元,链上合约创建总数量为2,327,098个,交易总量达到2.33亿笔,链上已创建的账户总数量为656.4万个,其中活跃账户数量为554.4万个。[2023/5/14 15:02:27]

还有人兴奋提问,之后会接入GPT-3/GPT-4吗?

Teller发布V2 Alpha版本,支持ERC-20代币或NFT作为抵押品:3月29日消息,DeFi借贷协议Teller Protocol近日已发布V2 Alpha版本,面向社区合作伙伴开放。Teller表示,其提供基于时间的清算以减少因价格下跌而导致的抵押品损失风险,V2升级将支持ERC-20代币或ERC721/ERC1155(NFT)作为抵押品。[2023/3/29 13:32:42]

所以,它具体是怎么实现的?

五步零代码搞定

简单理解,MonsterAPI就是将微调步骤尽可能简易化,让开发者不用再手动进行一系列设置,同时也提供便宜的GPU资源及内存优化。

具体过程如下:

第一步,选择一个模型进行微调。

Crypto.com DeFi钱包新增支持一系列ERC20代币和BEP20代币:12月16日消息,Crypto.com DeFi钱包新增支持一系列ERC20代币和BEP20代币。具体而言,ERC20代币包括:Anyswap(ANY)、Ariva(ARV)、API3(API3)、SOCIETY OF GALACTIC EXPLORATION(SGE)、Spell Token(SPELL);

BEP20代币包括:Gala(GALA)、Metahero(HERO)、Lucid Lands(LLG)、MicroPets(PETS)、HalfPizza(PIZA)、Zilliqa(ZIL)、Sin City Metaverse(SIN)。[2021/12/16 7:43:07]

比如LLaMA-7B、GPT-J-6B、StableLM-7B等,MonsterAPI提供了至少10个基础大模型。

Waves跨链以太坊发行ERC-20代币:金色财经报道,Waves宣布已启动一个网关,以促进WAVES代币向以太坊区块链转移。这将增强两条公链之间的互操作性,并将Waves功能带给以太坊用户。在网关启动后,WAVES代币持有者将可以访问在以太坊区块链上运行的许多去中心化应用程序、交易所和DeFi协议,以太坊用户也可以轻松访问WAVES代币。用户将能够通过网关在两个区块链之间移动WAVES代币。用户必须在Waves区块链上锁定一枚WAVES,以发行一枚ERC-20 WAVES。[2020/10/23]

第二步,选择或创建微调任务。比如指令微调、文本分类等,或者自定义任务。

第三步,选择一个HuggingFace数据集。

MonsterAPI可以无缝集成HuggingFace数据集,可选择范围很大;还可以根据任务类型推荐数据集。

并且不用自己手动操作,就能自动设置好格式。

第四步,设置超参数。

第五步,检查和提交。

在设置好如上所有步骤后,确定没有错误就可以提交了。

MonsterAPI表示可以通过WandB上的日志来监测任务。

在其博客中写道,用DataBricksDolly15k微调LLaMA-7B完成3个epouch,成本仅需不到20美元。

官网显示,注册用户后会赠送2500积分。会员分为三档,收费分别是每月9美元/29美元/39美元。

除了微调以外,MonsterAPI还提供各种生成式AI的API接口,并表示成本比其他方案低80%。

背后公司已获110万美元融资

消息显示,MonsterAPI背后公司拿下了110万美元的种子前资金。

这家AI初创公司给自己的定位是要做“GPU领域的爱彼迎”,把全世界分散的GPU资源实现灵活调度,让开发者们能够以更低的价格使用。

创始人是两兄弟GauravVij和SaurabhVij。

其中GauravVij还创立了一家CV公司,正是因为CV公司需要面临巨大的云计算资本,才启发了他们要做这样一个平台。

SaurabhVij之前是欧洲核研究中心的粒子物理学家,同时也研究分布式计算。

兄弟俩表示在经过多轮技术迭代后,他们优化了消费级GPU在机器学习任务上的性能,使得运行WhisperAI模型的成本相较于AWS平台降低了90%,所以他们就想着为什么不利用这个方法来帮助数以万计的开发者们。

同时他们透露公司的一个客户使用他们的分散的GPU计算资源,已经节省了30万美元。

参考链接:https://blog.monsterapi.ai/no-code-fine-tuning-llm/https://www.enterpriseai.news/2023/06/09/monster-api-launches-the-airbnb-of-gpus-with-1-1m-pre-seed/

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:15ms0-3:326ms