洞见 Web3 游戏:AI 如何创造新《原神》_POL:ITZ

作者:GalaxyBlitz

现象级《原神》带来的深思

很多人都发现,面对《原神》,游戏圈传统的套路”失效“了。过去的手游行业,卡牌、APRG、MMO、SLG、MOBA和吃鸡品类诞生的”爆款”会让业界迅速找到“方向”,然后不少厂商赚的盆满钵满。

面对《原神》,绝大多数人又感受到了一种巨大的无力感。大部分人想抄作业,才发现自己只是小学学历,而《原神》已经是两院院士了。米哈游的开放世界、内容包装、大投入、工业化、多平台、全球发行、IP与品牌……让游戏圈绝大多数人已经陷入了给答案都没能力看懂的境地了。

投资人的焦虑更大,米哈游从上交的宿舍企业到现在游戏界巨头仅拿了斯凯网络的CEO宋涛的100万元投资,如今这笔投资的估值是3400亿,传奇性堪比孙正义投资阿里巴巴,那么下一个米哈游在哪里?

那么《原神》的神话在Web3可以复制吗?GalaxyBlitz团队认为在SLG+AI+Web3的加持,可以另辟蹊径的低成本实现原神的神话。

我们首先来观察原神的付费逻辑,角色是《原神》的核心付费点,《原神》是一款内容极度围绕角色为核心的游戏,游戏内所有的内容包括但不限于剧情,大世界,动画,最终都是要为了角色服务。每个角色会有专属的剧情和故事,甚至单独制作的大世界提升的游戏体验都是会分摊到每一个角色身上,因为你最终还是要用他们去进行探索。

那么玩家为什么会为角色付费呢?因为玩家对角色产生了感情,提瓦特大陆的确是一个绝美的舞台,米哈游塑造的大世界,伴随之的回响音乐,形形色色的人物和故事,无不让人被深深吸引。行走于这片大地,就好像行走于一个真正的异世界——而不局限于小说,动画,真切地感受到一场来自陌生土地的田园诗歌。美丽的事物天然充满诱惑,我们趋之若鹜。

在这片风光绮丽的大陆上,玩家与角色一起无论是探索、战斗、通关深渊,还是养成,在某种程度上让你以为自己真的置身荒野或培养子嗣,大脑便会产生某种愉悦的感觉,这种愉悦的感觉来自与玩家与二次元角色在次次历险中培养的深厚的感情,为角色经历和性格所折服。

例如胡桃是一个经典的”矛盾”人设,既活泼又深沉,既明白生死教条又过的自由洒脱。表面上大大咧咧什么都无所谓,但其实内心对于死亡又非常敬畏认真。这种复杂矛盾的立体性格,反而更加让人体会到了胡桃这个角色的魅力。

胡桃表面生性贪玩、洒脱,但是深入了解她的经历才知道她有肃穆和凝重的另外一面

米哈游给每个角色制作了高度立体和复杂多面的性格,在一起经历和探险之后,玩家逐渐了解和挖掘到每个角色的故事,被角色的性格和魅力所折服,产生了收藏的欲望,于是产生付费冲动。

这也是《原神》要不停进行高强度更新的原因,因为只有大量围绕角色为核心的高质量内容更新,才能吸引玩家与角色在探险中产生共情和亲近感,从而吸引玩家进入付费循环。

Web3领域SLG将通过AI技术创造新的《原神》

那么这样的付费逻辑是否可以在SLG类型中复刻呢?显而易见AI技术的发展使这个逻辑成为了可能。GalaxyBlitz将在下一个版本使用AI技术,使GalaxyBlitz里面每一个角色都成为可以吸收主角性格的AIBeing,无监督的强化学习技术可以让AIBeing具备类似人类认知意识,角色所有的动作例如挥剑、躲避、防御、走路、冲刺、弯腰、射击等等,都是由玩家亲手训练产生,带上主角的印记,做出与玩家及其相似的决策,每个角色本质上都是与玩家共同成长、共同经历的AI亲人,打上玩家的标签,极易与玩家产生共情。

如何实现这些AI技术呢?GalaxyBlitz与知名AI公司PhantomAI一起研发了适用SLG手游的神经网络训练系统GalaxyBlitzMobileNet,GalaxyBlitzMobileNet是一种可扩展的数据驱动方法,在低功耗的玩家手机设备和GalaxyBlitz的深度强化数据中心共同搭配下,学习有可重复使用的运动技能的AIBeing。

我们的框架概述如下图:

????????????GalaxyBlitzMobileNet框架

GalaxyBlitzMobileNet框架由两个阶段组成:预训练,目标训练。

在预训练期间:low-levelpolicyπ(a|s,z)被定义为以动作空间数据集s里面用为基础动作a作为变量实现目标z的一个映射,使用奖励函数r对各种动作进行建模。经过预训练之后,可以通过使用特定任务转移到目标任务。

我们特意准备了一段预训练到多特定目标任务的Demo。

视频包含了AIbeing完成了3个奖励函数r确定的目标:高空翻滚穿越障碍物、连续射击靶心、成功设计靶心之后给自己竖大拇指。

low-levelpolicy可以为各种通用动作建模,根据Environment0定义的玩家习惯状态集可以实现挥剑、走路、冲刺、弯腰、射击等通用动作的训练。

???????????????????????Low-levelpolicy的动作组合-涉水走

Low-levelpolicy的动作组合-翻滚跳跃

Low-levelpolicy的动作组合-持姿势跑

Low-levelpolicy的动作组合-跪姿射击

在目标训练期间:High-levelpolicyw(a|s,z)被定义为以动作空间数据集里面用为动作组合z作为变量实现目标g的一个映射,其中z=array(a)。

如下图所示,通过High-levelpolicy,已经学会Low-levelpolicy的AIBeing可以被指示执行各种特定任务,这些特定任务由Low-levelpolicy里面的一组动作拼接连成。

High-levelpolicy的动作任务组合-跪姿射击靶心

High-levelpolicy的动作任务组合-绕旗走

在High-levelpolicy中,一开始Environment1的随机样本生成的模拟角色表演技能组合,随着玩家操作的频繁,discriminator会分离出让玩家习惯的动作产生,AIBeing的动作将越来越符合玩家的习惯。

如下图所示,我们的动作不包含“趴地”和“站起来”,但是AIBeing会自主学习“趴地”和“站起来”。如果玩家喜欢AIBeing胆小的性格,那么AIBeing会在遇到危险进行“卧倒”,在关键时刻“勇敢站起来”,从而发掘玩家内心的闪光点。

High-levelpolicy让AIBeing拥有了玩家“平时胆小但在关键时刻拥有勇气”的性格

Web3.0新式SLG的崛起

如果说目前的GalaxyBlitz1.0的版本最终实现2亿美元的年流水,达到目前Web2领域的SLG的较高水平。但GalaxyBlitz将在下一个AI版本中实现:投资需求+娱乐需求+情感消费需求,预计达到类似《原神》级别的50亿美元级别的年流水。

???????????????GalaxyBlitz团队预想的Gamefi演进路线

以GalaxyBlitz的AI技术为代表新式的SLG将拥有千人千面的角色NFT,在下一代SLG里面,每一个角色都拥有玩家独特的喜好和数据,他们不再是传统游戏里面千篇一律的数值工具人,而是寄托玩家的情感,可玩性,延展性等等可以得到极大的提高。

因此,充满个性的AIBeing将会带来下一个Web3游戏的叙事的高潮。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:0ms0-4:145ms