Skip to content

animede/Scalable-talking-head-anime-v1

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

13 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Scalable TalkingHead-Anime-V1

オリジナルのhttps://github.com/pkhungurn/talking-head-anime-3-demo をベースに

APIサーバ機能

任意サイズの切り出しとアップスケール機能

テンプレート自動作成機能(クロップエリア指定機能含む)

高度に抽象化されたポーズデータの指定

などを追加し、サーバまたはクラスライブラリとして利用できるようにしました。 また、クライアント側では並列処理機能を利用して処理時間を要するポースデータからの画像生成とアップスケールをpipeline処理しています。更にポースデータ作成や、自動瞬き機能も並列処理してアプリからの各AIへの操作を意識せずに動かせるようにしています。

リンク/クレジット

talking-head-anime-3-demo

https://github.com/pkhungurn/talking-head-anime-3-demo

MIT License

anime-segmentation 背景削除

https://github.com/SkyTNT/anime-segmentation

Apache License Version 2.0,

Real-ESRGAN アップスケーラ

https://github.com/xinntao/Real-ESRGAN

BSD 3-Clause License

Anime-Face-Detection

https://github.com/animede/anime_face_detection

MIT License

Scalable-Tanking-Head-Anime-3-API との違い

Scalable-Tanking-Head-Anime-3-APIはアップスケーラやAnimeFaceDetection,背景削除を独立したサーバで動かしています。とても煩雑で面倒でした。またテストプログラムはハードコードされたポースとポースの補間ポースでリアルタイム画像を生成して並列処理の動きを確認するだけでした。Scalable TalkingHead-Anime-V1では独立して動いていた各AIサーバをメインのサーバ機能のsubprocessとして実行・停止を行うため、サーバ起動は一つのPythonスクリプトの実行でずべて動くように改良しています。また自動テンプレート作成機能や各部位を動かしながらアップスケールの効果をテストできるGUI(Webアプリ)も準備しました。なおScalable-Tanking-Head-Anime-3-API で使えたテストプログラムはすべて動きます。またサーバ側の各AIの扱い方の変更はあるものの、クラスライブラリに変更は無いので過去のバージョンと互換です。GUIアプリのバックエンドのFastAPIコードではクラスライブラリの使い方がわかるようにあえて冗長なコードを残して簡略化を避けました。

詳細な使い方について

使い方が多岐に渡るため、めぐチャンネルにて順次記事にします。技術書典でご購入いただいた第2部の補完及び大幅機能アップの説明になります。(書籍購入頂いている方向けの特典も考えています)

確認済み動作環境

Ubuntu22.04 / 20.04

CPUはそれなりに処理能力を要します。マルチプロセッシングや複数のFastAPIサーバを動かすため、コア数の多いi5以上を推奨します。

GPUは必須です。 x8以上のアップスケールを行うにはRTX4060以上、x4以上のアップスケールを行うためにはRTX3060以上が必要です。x1で使う場合は1650程度でも動きます。VRAM容量は2G以上ですが、扱うキャラクタ画像(最大20個に設定)が増えると画層毎にVRAMを使うため概ね4G程度を目処にしてください。

インストール

インストール.txtに記載しています。特にCUDAのインストールについては記述ありませんが、12.3で動作確認をしています。仮想環境を作成するので事前にvenv環境が作成出来る準備が必要です。

CUDAの確認

nvcc -V  このコマンドにて以下のようなバージョン情報が表示されればOKです。

nvcc: NVIDIA (R) Cuda compiler driver

Copyright (c) 2005-2023 NVIDIA Corporation

Built on Wed_Nov_22_10:17:15_PST_2023

Cuda compilation tools, release 12.3, V12.3.107

Build cuda_12.3.r12.3/compiler.33567101_0

リポジトリのクローン

git clone [email protected]:animede/Scalable-Tanking-Head-Anime-3-API.git

仮想環境の作成とインストール

python3 -m venv tkh

source tkh/bin/activate

cd Scalable-talking-head-anime-v1

pip install -r requirements.txt

PyToechは 2.3.1+Linux+pip+CUDA12.1 でインストール

pip install requirements.txtでインストールエラーになる場合はエラーメッセージに従い個別にモジュールのインストールを行ってください

pytorch 2.3.2のインストール(CUDA環境に合わせて)

cv2,matplotlib,fastapi、pytorch_lightning,scipyが不足している可能性があります。

ウエイトのダウンロード

Talking-Head-Anime3

wget https://www.dropbox.com/s/y7b8jl4n2euv8xe/talking-head-anime-3-models.zip?dl=0

または HuggingFace https://huggingface.co/UZUKI/Scalable-tkh からダウンロード

dataフォルダにtalking-head-anime-3-models.zip?dl=0をコピーし、そこで展開 作成されたホルダー名をmodelsに変更

その他もHuggingFaceからダウンロード

ssd_best8.pth をweightsホルダへコピー

realesr-animevideov3.pth をweightsホルダへコピー

isnetis.ckpt はScalable-talking-head-anime-v1のTOPへコピー

Webアプリの動かし方

thh_全機能の動かし方に記載しています。

Scalable TalkingHeadAnime-V1サーバの起動

ターミナルを開いて以下のコマンドを実行

source tkh/bin/activate

cd Scalable-talking-head-anime-v1

python poser_api_v1_3S_server.py

Webサーバの起動

ターミナルを開いて以下のコマンドを実行

source tkh/bin/activate

cd Scalable-talking-head-anime-v1

python tkh_gui_html.py

host="0.0.0.0", port=3001で起動するので、ブラウザーから127.0.0.1:3001にアクセスします。

host="0.0.0.0"なので、動かしているPCのLANのURLからもアクセス可能で、ネットワーク上の他のPCからも使えまが、複数クライアントへの正常なサービスができません。またリアルサイズ表示はサーバを動かしているPC以外では行えません。

URLとポートはtkh_gui_html.pyの最後の行で変更可能です。

Windows環境について

Windowsにインストールするにはいくつか変更などがあります。調査中ですが、以下は現時点ではっきりしている必要な変更です。

Set-ExecutionPolicy -ExecutionPolicy Bypass -Scope Process

source tkh/bin/activate → .\tkh\Scripts\activate

URL 0.0.0.0だとエラーになるので127.0.0.1へ変更

UTF-8指定

ここまでで Scalable TalkingHeadAnime-V1サーバ は動きます。 Webサーバの起動についてはLinuxとWindowsのマルチプロセッシング処理方法が違うので、さらに修正が必要です(検討中)

基本的な使い方

ブラウザでアクセスするとファイル選択ボックスが表示されるのでクリックして使いたい画像をファイルを選択してください。選択後は自動的にテンプレートまで作成します。キャラクタが任意の位置に一人だけいる使える画像であればほとんど利用できます。キャラクタが小さくても、顔の部分のみであっても、背景濃霧や透過に関係なく使えます。

テンプレート画像が表示されたら、Generate Imageボタンが表示されます。Modeはクリップ範囲の指定で、エリアが小さいモードほど高速です。Customを選ぶとエリア指定パネルが表示されるのでピクセル位置を指定して任意のエリアを切り抜くことができます。Generate Imageボタンをクリックするとmodeに従った生成画像が表示されます。黒い画面になる場合はもう一度Generate Imageボタンをクリックしてください。生成画像が表示されるとともに、下に操作パネルが表示されます。

キャラクタを変えるには再度ファイル選択からやり直してください。

挙動について

ポースデータ作成、画像生成、アップスケールをpipline処理してるのでスラーダーと微妙に(はっきりとわかる)ズレが生じます。3枚程度の生成が遅れて表示されます。向きを変えると変えたあ後は変化させる前の画像が数枚表示されてから変化させた方向の画像が生成されてきます。また、感情ラジオボタンをクリックした時、その前の操作次第でズレてしまいます。mpを迂回してtkhサーバにリクエストをすればこのよなことは起こりませんが、スラーイダーの処理との共通化してコードが煩雑にならないようにしています。

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages