手机版
扫码访问手机版
微博
微信
微信客户端扫一扫
抖音
抖音客户端扫一扫
B站
以假乱真!AI 视频工具 Sora 是怎么做到的?
本条由 canis1 采集
0
海报
0
0
0

以假乱真!AI 视频工具 Sora 是怎么做到的?

今年2月,OpenAI首次公布了自己的文生视频模型 Sora,在科技领域引起极大的反响。

根据OpenAI的官方简介,Sora可以制作长达60秒的视频,视频包括高清晰度的场景、复杂的镜头动作,并可支持多个角色的创作,是基于ChatGPT和静止图像生成器DALL-E所建立的视频生成模型。

例如,根据文字“一位时尚女性走在充满温暖霓虹灯和动画城市标牌的东京街道上,她穿着黑色皮夹克、红色长裙和黑色靴子,拎着黑色钱包。她戴着太阳镜,涂着红色口红。她走路自信又随意。街道潮湿且反光,在彩色灯光的照射下形成镜面效果。许多行人走来走去”的提示,Sora生成了一段60秒的视频,画面质感高级,人物肌肤纹理的细节逼真。有网友表示,如果不注明AI生成,自己完全分不出真假。

Image title


虽然Sora生成的内容虽然还存在一些缺陷,但已经展现出强大的视频创作能力。那么Sora是如何生成视频的呢?

根据OpenAI发布的技术报告,Sora是一个扩散模型。扩散模型本身很复杂,但可以通过一个简单的例子,大致理解扩散模型的思路。

想象一下,我们手头有一张清晰的狗狗照片。通过逐步向这张照片中添加噪点,它会逐渐变得模糊,直至最终变成一堆看似无序的噪点集合。

Image title


这个过程实际上可以逆向进行。也就是说,从一堆杂乱的噪点出发,我们可以通过一步步去除噪点,逐渐还原出原始的图片。而扩散模型的关键所在,就是学会如何有效地进行这种逆向去噪的过程。

值得一提的是,扩散模型的应用并不仅限于图片生成。例如,在Sora的技术报告中就提到,OpenAI通过特定的转换处理,使得视频数据也能被用于模型训练。这样一来,Sora便能根据给定的提示词,直接生成相应的视频内容。

Image title
本条资讯信息源自 科普中国 ,更多详情参考 原文出处 ,原文标题:《以假乱真!文字直接生成视频,AI 视频工具 Sora 是怎么做到的?》作者:星空计划
赞赏
特别声明:以上文章资讯内容(含文字、图片、视频)不代表科幻岛平台的观点或立场。如有关于作品内容、版权或其它问题请于作品发布后的30日内与科幻岛联系。
投递人
canis1
资讯递客 | 撰稿人 | 科幻作者 
+关注
13123
我要留言
我要留言 举报和反馈
最新留言 已精选评论
更多资讯
赞赏
给资讯递客打个赏
1元
2元
5元
赠1张推荐票
10元
赠2张推荐票
20元
赠5张推荐票
50元
赠10张推荐票
举报与反馈原因
建议您填写电话和留言对象信息,将有助于我们尽快解决您提出的问题,并及时与您沟通。
E-mail:
姓名:
电话:
评论已提交,审核后将展示。
分享
分享至微信朋友圈
生成分享海报
X
微信扫码支付
请打开[微信扫一扫]扫描上方二维码完成支付
好的内容,值得赞赏
2
您未登录,立即登录
扫码访问手机版
微信客户端扫一扫
抖音客户端扫一扫
请用微信扫描下方二维码 ×
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。