环境:Windows 11 + NVIDIA RTX 3070 Laptop 16GB
我配置了阿里云的镜像,要实现一样的效果,你也可以在每一行的命令后加
-i https://mirrors.aliyun.com/pypi/simple/
如:
pip install package_name -i https://mirrors.aliyun.com/pypi/simple/
安装按 GitHub 开源说明部署没有压力
conda create -n EchoMimicCpu python=3.10
activate EchoMimicCpu
conda install git
git clone https://github.com/antgroup/echomimic.git
cd EchoMimic
conda install ffmpeg
pip install -r requirements.txt
git lfs install
git clone https://huggingface.co/BadToBest/EchoMimic pretrained_weights
注意huggingface在国内不能正常访问,可以用以下命令替代
git clone https://hf-mirror.com/BadToBest/EchoMimic pretrained_weights
我的经验,其实你用某种方式打开原网站点下载后,使用IDM等下载工具,会自动跳到CDN链接,速度飞起,至于怎么打开原网页,作为肩负国家振兴责任的年轻人,你可以大胆一点
问题:
ImportError: cannot import name 'cached_download' from 'huggingface_hub'
手动安装相关包的版本
pip install transformers==4.38.2
pip install huggingface_hub==0.25.0
pip install gradio==4.44.0
问题:
please download ffmpeg-static and export to FFMPEG_PATH.
下载
https://www.johnvansickle.com/ffmpeg/old-releases/ffmpeg-4.4-amd64-static.tar.xz
解压,比如我直接解压到
F:\EchoMimic
然后,运行时(每一次运行都要,也可以设置永久环境变量)
set FFMPEG_PATH=F:\EchoMimic\ffmpeg-4.4-amd64-static
问题:
Cannot initialize model with low cpu memory usage because `accelerate` was not found in the environment.
安装 accelerate 包
pip install accelerate
问题:
AssertionError: Torch not compiled with CUDA enabled
要么改python脚本,要么安装cuda版本的torch(次奥,还是cuda吧)
conda install cuda=12.1
# 从 https://download.pytorch.org/whl/cu121 下载 wheel
# 如 torch 就到 https://download.pytorch.org/whl/cu121/torch 下载对应版本
# 国内也可以用阿里云 https://mirrors.aliyun.com/pytorch-wheels/cu121 但是新版本 torch 还没有
pip install D:\Downloads\torch-2.2.2+cu121-cp310-cp310-win_amd64.whl
pip install D:\Downloads\torchvision-0.17.2+cu121-cp310-cp310-win_amd64.whl
pip install D:\Downloads\torchaudio-2.2.2+cu121-cp310-cp310-win_amd64.whl
问题:
TypeError: argument of type 'bool' is not iterable
ValueError: When localhost is not accessible, a shareable link must be created.
这个是老问题了,是pydantic版本所致
pip install pydantic==2.10.6
此外,如果使用页面 webui.py 脚本有问题(我怀疑这帮人是故意的)
cv2.error: OpenCV(4.11.0) :-1: error: (-5:Bad argument) in function 'resize'
修改 webui.py 第 169,170 行
face_img = cv2.resize(face_img, (width, height))
face_mask = cv2.resize(face_mask, (width, height))
为
face_img = cv2.resize(face_img[0], (width, height))
face_mask = cv2.resize(face_mask[0], (width, height))
实测
也许是因为笔记本的GPU的原因,生成6秒的视频,磨蹭了2个小时,效果还行吧,反正比wav2lip好一些,而微软的VASA-1和国内同样是阿里的EMO还没有开源,暂时没法对比,字节跳动老张的LatentSync可以处理视频,效果都差不多