3分鐘一個大片!視頻版Midjourney上線iPhone,網友實測太絢了_NFT:UNW

来源:新智元

导读:Gen-1能在iPhone上用了,安卓版用户坐等上线。

没想到,「视频版的Midjourney」已经上线APPStore了!

划重点,能够免费体验。

只需上传5秒内的视频,选好风格,就可以在2-3分钟,瞬时得到AI生成视频了。

这个最新应用是由初创公司Runway推出,前脚官宣了进化版Gen-2,现在又在搞事情了。

最新上线的RunwayML仅支持视频-视频的生成AI模型Gen-1,并且只能在iOS上体验。

话不多说,小编立马下载一个,上手体验了一把。

Web3分发平台MetaZone完成300万美元融资:5月31日消息,Web3 数字内容和应用分发平台 MetaZone 宣布完成 300 万美元种子轮融资,专注于元宇宙领域投资的两家机构 Sfermion 和 CMT Digital 共同领投,Tess Ventures、IOSG Ventures、IVC (Infinity Ventures Crypto)、Polygon Studios、MHC Digital 和 LucidBlue Ventures 参投。

MetaZone 允许创作者和开发者铸造 NFT 的 3D 数字内容和并在元宇宙分发,每个创作者的 META 都被分配了一个代表其价值、所有权和访问权的 NFT。这些 NFT 可以购买并用于在数字土地上安装应用程序,供该土地的所有者和访客使用。[2023/5/31 11:49:13]

3分即生视频

NEAR将于2023年发布Phase2分片,2024年交付Phase3分片:11月12日消息,NEAR发布2023至2024年协议路线图,未来两年NEAR将发布两个阶段的分片以及部分重要的功能,Phase2计划2023年发布,2024年会交付Phase3分片。路线图中涉及的部分功能包括元交易、零余额账户、Secp256r1秘钥、全局存储、在wasm内运行wasm等。[2022/11/12 12:55:43]

想要在手机上体验Gen-1的快乐,首先需要先下载RunwayML,然后登录/创建账户。

登录成功后,就可以开始创建自己的视频之旅。

与网页版最大的不同是,RunwayML不仅能编辑视频,还能拍摄视频。也就是,你随手这么一拍,就能做个效果。

Azuki NFT荷兰拍于3分钟内售罄,合计募资8700 ETH:1月13日消息,NFT项目Azuki于官网启动荷兰拍销售(后续还有白名单轮次),总计8700枚NFT在3分钟内以1 ETH的单价快速售罄。

截至发文,该系列NFT在Opensea的地板价为1.96 ETH,45分钟总交易量已达2279 ETH。[2022/1/13 8:45:24]

当然了,从手机相册上传一个已经拍好的视频也是可以的。

进入前,RunwayML提示每个人都会有525credits。每秒的视频,会用掉14credits,大概一共能免费生成38秒的视频。

你可以上传一段视频,然后选择一个文本、图片作为输入,或者直接选择预设风格,Gen-1可以根据输入的内容来转换视频的风格。

MAO DAO首批NFT盲盒开售3分钟内销售完毕:MAO DAO于8月8日23:30发行首批NFT Ready PlayerCat (RPC),第一批RPCNFT开售限量1000枚,3分钟内销售完毕。MAO DAO表示,将在两周内启动第二批数量为3000枚的NFT售卖。[2021/8/9 1:43:18]

预设风格

RunwayML预设了6种图片风格,包括黏土、水彩、折纸、水笔画、素描、云景。

先来个黏土风格的,上传视频后,生成的狗子多少有点……掉san值……

其实,小编的狗子是这样子的...

动态 | 大额转账监测:14时03分LTC发生近314万美元转账:今日14时03分04秒,Lf3nzdA打头地址向LczX69打头地址转入60864.29253210 LTC(约314.91万美元)。交易哈希值:ed0d48939f784f91f2db04f7a59e5252e3192ee2868bb5ab0c877ab22cec3bdc[2018/10/11]

再试一个云景

上传照片

上传图片来设定风格,比如梵高的「星空」。

给办公室来一个特效吧,是这样的:

此外,你还上传一段在公园里骑车的视频,然后选择一幅水彩画作为输入,视频风格立马变成水彩画了。

还可以上传一张猫咪的照片,让视频中的人物变成猫咪。

当前阶段的RunwayML表现还不尽如人意,输出的视频会存在变形、变色等情况。另外,限制上传的视频时长不能超过5秒。

还有一些prompt是被禁止的,比如生成裸体,还有受保护的作品也是不允许的。

比如theVerge的作者尝试让RunwayML生成宫崎骏「吉卜力工作室」风格的视频就被拒绝了。

目前,Runway移动版只支持运行Gen-1,未来,Gen-2也会上线移动版。

Gen-2更强了

上个月,Runway发布了文字生成视频模型Gen-2。

有了Gen-2,你就能用任意的图像、视频或文本,生成一段酷炫大片,想要啥风格,就有啥风格。

最新版的Gen-2一口气带来了八大功能:

文生视频、文本+参考图像生视频、静态图片转视频、视频风格迁移、故事板、Mask、渲染和个性化。

就比如Mask功能就可以将一走走路的小狗秒变斑点狗。

网友玩疯了

网友上手实操,黏土风格的小男孩。

先拿自己的狗子试试,太魔幻了。

太神奇了吧!将来也许可以通过一些文字输入来创造自己的电影!

已经有网友开始坐等Gen-2上线了。

安卓版的啥时候有?

Valenzuela将当前的人工智能生成时代与19世纪火热的「光学玩具」时期相提并论。

当时,科学家正发明各种各样的设备,尽管这些设备在性能上并不怎么样,但却是现代照相机的鼻祖。

同样,Runway的APP感觉就像这些玩具中的一个。

谁也无法想象,这一工具在未来会产生多大的影响力。

参考资料:

https://www.theverge.com/2023/4/24/23695788/generative-ai-video-runway-mobile-app-ios

https://www.tomsguide.com/news/runway-lets-you-create-ai-videos-on-your-iphone-heres-how-it-works

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金智博客

[0:0ms0-6:435ms