阿里AI专家交流实录_SIM:区块链运用的技术中不包括哪一项

问:阿里大模型的发布节奏,以及大致水平?

答:阿里巴巴达摩院主要来牵头去做大模型的相关的研究和进展,大概是在22年的时候,我们其实就已经发布了我们自己的这种自然语言理解的大模型,一个叫m6,一个叫plug。M6的话基本是能够支持多模态的这种AI模型,比如说文字生成图片,文字生成语音,文字生成视频这种模型,但是我们大模型相比来讲,GPT3.5这种水平在参数量和整体规模上其实还是要小一点。所以在大模型目前我们这种模型可能也就叫做中模型。

达摩院顶层的领导下达了命令,整个团队约有100个人去开始去做相关大模型的迭代和升级,一方面是自己在复现GPT的水平,一方面是要迭代把我们的m6和plug迭代到能够对标到GPT的水平。目前来看根据我们得到的一些反馈,我们自己的这种m6的一些自然语言理解的能力,目前还不能对标到GPT3.5与GPT3.5大约还得有个一年半左右差距。

所以在我们预计今年在下半年云栖大会上的时候,应该会有m6的一些最新的模型的发布或者是进展,可能大概在GPT2.5左右的水平。

语料积累不足。现有的大型语言模型在文本清洗和筛选方面存在一些限制,因此需要对现有模型进行升级和迭代,以适应不同领域的数据需求。例如,要将模型应用于军事、旅游文化、等领域,需要进行更多的数据收集和人工标注,以达到更高的准确性和效率。同时,大型语言模型的成熟也将带来更多的商业机会,例如在天猫淘宝、高德地图等应用中的搜索和客服机器人等领域。此外,如果大型语言模型足够成熟,可能会释放出API,由合作伙伴接入,从而实现生态层面的垄断。

阿里巴巴将与黄山对接合作电商直播、区块链技术等方面:黄山市与阿里巴巴集团合作对接会5月18日召开。阿里巴巴集团拟重点围绕电商直播、文旅行业数字化转型、区块链技术三个方面与黄山市加强合作,利用阿里巴巴集团直播体系和黄山的直播产业结合,在黄山落地电商直播基地,培养电商直播运营人才队伍;与黄山旅游发展股份有限公司深化合作,以数字化手段提升服务体验,以科技赋能文旅智慧化;运用蚂蚁区块链技术打造以黄山茶叶为主的农产品溯源基地。(黄山发布)[2020/5/20]

问:预计阿里大模型与文心一言对比?同时您认为制约我们大模型发展的是最主要是这个语料,还是模型一开始的这种路径偏离,您认为哪一个是制约我们发展的一个最重要的原因??

答:我们认为百度做得虽然不是那么智能,但还是相当不错的。在国内,它可能算是第一名。我们认为它还有很大的提升空间。文心一言虽然有一定的实用性,但离达到GPT-3水平还有一定差距。不过,我们觉得它至少可以达到GPT-2.5水平,如果未来能够持续迭代和优化,可能会达到GPT-3.5的水平。数据积累对于百度来说是一个优势,尤其是在搜索领域。百度在知识库方面有很多年的积累,包括百度知道等。与文心一言不同,其模型架构基于Transformer,而文心一言则基于Bert。如何在文心一言的基础上实现更智能的迭代,可能是一个挑战,需要达摩院的同学来解决。

动态 | 外媒:阿里巴巴将通过Lolli为美国用户提供比特币奖励:金色财经报道,比特币奖励应用程序Lolli刚刚宣布与中国电子商务巨头阿里巴巴建立了首个亚洲合作伙伴关系。Lolli的浏览器内应用程序使用户能够像往常一样通过网站购物,但可在浏览器内置钱包获得少量比特币奖励。阿里巴巴目前尚未发表评论。但是,Lolli的传播负责人Aubrey Strobel表示,Lolli仅适用于在美国境内购买的商品,中国居民将无法参加。其产品将从中国运送给美国用户。[2019/11/12]

问:阿里如何后发追上?会采取怎样的打法?

答:我们可以提供的方案主要有两种,一种是我们推出的模型效果相对较好,可以与集团内部的产品结合,例如天猫、淘宝和高德地图的搜索业务。这将为搜索引擎带来更新的商业模式,并取代以前的商业模式。此外,我们还可以输出我们自己的API,并向合作伙伴或渠道商收费。这些合作伙伴将使用我们的API,并体现出他们的客户,这些客户是从ToC端产生的。大多数客户都有自己的APP和网站,这些客户可以通过他们的APP和网站获取流量。不同的客户可以使用不同的API,这意味着厂商可以在生态系统中形成垄断。目前,已有一些厂商尝试将我们的API集成到他们的产品中,但进展不如预期快。对于我们的API,它们可能会在特定领域上有所帮助,例如电商、搜索和推荐,并带来更好的商业模式。

动态 | 阿里云研究中心:2019年物联网和区块链叠加将实现农产品全链路数据监测:据新华网报道,2月20日,阿里云研究中心发布《2019数字化趋势报告》。报告指出,2019年,农业会继续进步,物联网和最新的区块链技术将产生叠加效果,实现全链路数据监测,未来消费者可以知道餐桌上的肉产自哪里。而农产品从种植到销售将更精准对应目标市场需求,大幅降低滞销问题。[2019/2/20]

问:阿里目前AI算力储备情况?

答:阿里国内AI算力储备最多,然后以次为:字节、百度、腾讯。

阿里云现在云上至少应该有上万片的A100了,整体至少能够达到10万片,集团的话应该会是阿里云5倍的这样的一个量级。

达摩院、天猫、淘宝的算力资源都是集团内资源使用。

阿里云这块今年增速会有30-50%。有个别8-9个客户会有复现GPT的需求,提出了大规模AI算力需求,我们以云的方式给。

百度年初紧急下单3000台8卡的A800服务器,2.4万张卡,我预计全年百度会有A-H800共5万张的需求。

阿里云需求不会这么多,去年采购2万多,今年可能采购量会下降。预计云上就1万张左右,其中6000张是H800。此外阿里云也会用到平头哥这种自研的,每年大概3000张去采购。

声音 | 阿里巴巴集团副总裁:阿里跨境供应链平台将融合区块链等新技术:据中国经济时报报道,在阿里巴巴举办的“2018全国供应链拍档年度大会”上,阿里巴巴跨境供应链负责人王添天宣布,阿里巴巴外贸综合服务平台一达通,正式升级为跨境供应链平台。阿里巴巴集团副总裁、中小企业国际贸易事业部联席总经理余涌表示,下一步跨境供应链还将通过IOT(物联网)和区块链等新技术,打造一个涵盖供应链拍档、报关行、国际物流和贸易金融于一体的生态体系。[2018/11/26]

从除此之外,阿里云也会选择国产芯片的一家,看是否在云上商业化。

问:阿里云采购的哪家国产芯片,为何选择?

答:选择的是寒武纪MLU370,主要是性能基本过关(A100的60-70%),检测合格,态度积极,愿意对接,服务贴身。今年会采购大概2000张的水平,主要用在一些CV等小模型的训练或推理上。寒武纪MLU370没有供货的风险,后续的MLU590也许就会有了。

对于壁仞等,宣传上不错,但拿不到实测的卡,流片大约都是今年4-6月,量产半年后。而且壁仞4月要流片的卡,不能支持FP64,互通带宽不支持8卡,支持最多4卡,采用NVbridge方式,达到180GB水平。8卡用PCIe方式只能做到32GB,弱点显著。

阿里财报披露:过去一年,蚂蚁金服坚定区块链等科技的战略性布局:5月4日,阿里巴巴公布2018财年业绩。财报显示,在过去的一个财年,蚂蚁金服不仅在支付、风控等底层技术上自主研发并掌握核心知识产权,对于区块链等科技也坚定战略性布局。目前,蚂蚁区块链团队拥有的技术专利申请数量,在全球互联网公司中排列第一。[2018/5/5]

针对海光,我们技术人员也有看好的,参数也足够支撑训练,但可能由于海光因产能等因素,可能更侧重满足国有算力那边的需求。同时,集团层面是否对接,不清楚。

问:海光为何会不给样片测试?出于什么考虑?海光DCU的量应该是够的。

答:海光的话,我们确实没有拿到他的样卡,就是不知道为什么,我们也得知很多国产化的订单他们都中标且供货,但我们跟他对接的时候,好像反正是各种各样的问题,就是没有测起来。

我们内部其实也有一些同学是支持海光深算1号的,但是一方面当时寒武纪还没被拉入黑名单,而海光被拉入了黑名单,然后我们其实也有一定的担心,就是在阿里云上了之后,可能会给自己引火烧身,所以这方面也是我们考量的一个因素。最后反正就没采海光后期的供货,可能也会成问题,这也是我们考量的原因之一。

不知道他们是手头是不是比较重要的这种国产化的项目,或者订单的交付还是没有人力来支持。我们也不是特别知道,可能他们团队也就几百个人吧,就是没有这个时间周期。

总体上,在其他国产AI芯片竞争上,海光好像不是很在意这个云上的这个市场。

问:腾讯大模型的进展?

答:有听到是混元这个模型继续迭代,有大概100人左右做GPT复现以及自我模型迭代。应该会比我们的早,猜测大概8月份会出。但应该只是支持文生文的场景。

问:目前降低算力成本的方式?

答:除了大模型,即使stablediffusion这种文生图模型,也消耗较小。stablediffusion模型一直在优化,以前一个推理任务一张A100、现在降级到一个推理任务一张V100。对于阿里这种巨头而言,V100的存货还是很多的。

同时,还会有一些针对模型的优化,或者加速软件,加快模型训练与推理。

最后,也可以对模型进行降级,降低精准度要求,比如从FP16降级为FP8,。

问:阿里目前对于AI大模型是不计成本的大力投入,还是考虑商业落地稳扎稳打?

答:大概率是稳扎稳打,现在拆分后,都要自负盈亏,压力蛮大的。

ChatGPT的一个推理的任务,大概所需要消耗的这个能力是5张A100在2秒钟之内做一次推理,大规模应用起来成本很高,冲击也很大。

问:华为盘古与昇腾如何看?

答:盘古大模型效果有待考证,并没有明确对标GPT,而是往B端去做。

同时因为受限制,只能用自己的昇腾,虽然昇腾910大概也有A100的70%水平,但算力的限制可能会制约大模型发展。

问:从CUDA兼容性角度,海光与寒武纪如何对比?

答:海光的CUDA兼容性更好,除了海光,其实阿里云产的PPU其实也在一定程度上能够做到CUDA兼容,与NV做绑定。

问:360的大模型如何看?

答:我们了解到,最近360向NV下了上千块A800的货。360语料可能比我们强,但最后能做出什么效果,需要时间验证。

问:目前跑在大模型上面的光模块架构会向英伟达推荐的方向去迭代吗?

答:我们不太会去走英伟达的架构,我们有自己的路线,其他大厂可能会走英伟达路线。

阿里云的公有云的层级上面,目前都是采用了阿里云自研的产品叫做DPU。我们自研的DPU其实现在已经迭代了几乎3.0或4.0的状态,支持双口100GB的水平。

那DPU的功能是用于在云上开发弹性裸金属,因为我们要把服务器做成云上的云服务器中间是有一层虚拟化的开发,那虚拟化之后这个物理机上的资源其实是有一定的损耗,CPU的核心数、内存的容量以及网络的带宽、硬盘的这个存储容量都会有所影响。那之所以搞DPU,是为了把这些虚拟化的资源都ofload到DPU上去,使得我们云上的这种云服务器的资源和线下的这种物理机的资源是整体的资源数量是一模一样的,是没有任何变化的。

那DPU的主要功能是在这里,那我们现在研发的第四代的这个DPU,它里面主要集成了ERDMA的这个能力,这个RDMA就是远程内存直接访问的意思,然后其实是主要应用在HPC的这个场景,然后这个E代表的是elastic,我们叫做弹性RDMA这个东西,那它其实是在以太网的架构下去跑ERDMA。也就是说我们希望在以太网的这个网卡、渲染交换机以及这种集群架构上去跑,类似于高性能计算的这种协议,能够把一些高性能计算的场景支持起来。所以我们大概率在公有云的这个场景,不太会去考量像Nvidia提供的这种集群架构,这是公有云的这个方式,从云上讲不支持,光模块数量没有明显增长,阿里网络架构不会改,光模块的规格也不太会改。

但百度云字节火山云可能会采纳英伟达的架构,取决于数量,目前只采纳300台H800,对应每台服务器9张网卡,每个卡一个线,一个线两个光模块,9张网卡一台服务器是18个光模块,300台是5400个光模块,如果集成架构往上扩,扩1000个节点的话,大概是3倍的增长。

问:看好BAT、字节等哪一个大模型?

答:第一还是百度文心,先发优势,其次可能是字节,因为有数据、有算力、有场景。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:15ms0-4:97ms