您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
三六零分类信息网 > 梅州分类信息网,免费分类信息发布

Python+AI让静态图片动起来

2026/2/2 14:17:38发布22次查看
哈喽,大家好。
大家在刷短视频的时候有没有刷到这样的视频,视频里一张静态的人物图片能动起来,如:歪歪头、眨眨眼。
类似于下面这种效果
最左侧的人物是原始的动作,上面是静态图片。通过ai技术便可以让最左侧人物的动作运用到上面的静态图片上,从而让张图都可以做出相同的动作。
这种技术一般是基于的gan(生成对抗网络)来实现,今天我给大家分享一个开源项目,能够复现上面的效果,可以做些有趣的项目,也可以怀念故人。
1. 运行项目项目地址:https://github.com/aliaksandrsiarohin/first-order-model
首先,git clone将项目下载到本地,进入项目安装依赖。
git clone https://github.com/aliaksandrsiarohin/first-order-model.git
cd first-order-model
pip install -r requirements.txt
然后,在项目首页pre-trained checkpoint​标题下,找到模型下载链接,下载模型文件,模型有很多,我用的是vox-adv-cpk.pth.tar。
准备好模型文件后,在项目根目录下执行下面命令即可。
python demo.py
--config config/vox-adv-256.yaml
--driving_video src_video.mp4
--source_image src_img.jpg
--checkpoint weights/vox-adv-cpk.pth.tar
解释下参数:
--config:模型配置文件,在源文件中有--driving_video:提供动作的视频--source_image:需要加动效的静态图片--checkpoint:刚刚下载的模型文件运行完成后,会看到如下输入。
该项目使用pytorch​搭建神经网络,支持gpu和cpu​运行,所以如果你的电脑只有cpu,运行会比较慢。
我是在cpu​下运行的,从上图可以看到,driving_video​只有 31 帧。如果你也是cpu​运行,最好控制driving_video视频的时长,不然运行时长会比较长。
有了该项目,可以自己做些比较有意思的尝试。
2. python api上面教大家按照官网在命令行运行该项目。
有些朋友可能想在python​项目中调用,所以我在demo.py​中抽取了核心代码,封装了一个pyhton api。
有需要的朋友可以下载这个文件,放到与first-order-model同一级的目录下,按照下面代码调用即可。
fom = fom()
# 查看驱动视频,驱动视频最好裁剪为480 x 640 大小的视频
driving_video = ''
# 被驱动的画面
source_image = ''
# 输出视频
result_video = ''
# 驱动画面
fom.img_to_video(driving_video, source_image, result_video)
以上就是python+ai让静态图片动起来的详细内容。
梅州分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录 Product