Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

LinuxでのAMD Rocmサポート #617

Open
1 of 3 tasks
KiYugadgeter opened this issue Sep 18, 2023 · 2 comments
Open
1 of 3 tasks

LinuxでのAMD Rocmサポート #617

KiYugadgeter opened this issue Sep 18, 2023 · 2 comments

Comments

@KiYugadgeter
Copy link

内容

LinuxでのRocmのサポートがほしいです。

Pros 良くなる点

Linux環境かつAMD GPUの環境でもGPU推論が可能になる

Cons 悪くなる点

とくに思いつきませんが、なにかあるかもしれない??

実現方法

VOICEVOXのバージョン

0.?.0

OSの種類/ディストリ/バージョン

  • Windows
  • macOS
  • Linux

その他

すでにONNXに対応しているので不可能ではない気がいたします

@Hiroshiba
Copy link
Member

サポートできるならしたいですね!!

一番の問題は、ボイボのonmxモデルがonnxruntimeのROCm executorで動くかどうかだと思います。
これは実際にROCmを使うようコードを変えてビルドして、リポジトリ内のmodel/simple.vvm(zipファイルとして展開するとonnxファイルがあります)を使った実行ができるか試す、という作業が必要そうです。
ソースコードを「cuda」で全体検索しつつ、ひたすらrocmを足していく感じになるのかなと想像しています。
もしかしたらonnxruntimeのRustラッパーのこちらも
ROCm対応が必要かもです。
https://github.com/VOICEVOX/onnxruntime-rs

大変かもしれませんが、対応できれば安価に高速なボイボサーバーを立てられるようになるかもしれないので、需要は小さくないと思います。
開発にはROCm対応デバイスが必要ですが、 @KiYugadgeter さんはお持ちだったりされますか…?👀

@Hiroshiba
Copy link
Member

Hiroshiba commented Sep 27, 2023

@KiYugadgeter やっぱり対応を望まれる方が実際に実装まで行うのが一番なのかなと思っています!
もしよかったら挑戦してみませんか?
不明な範囲があれば積極的にお答えしたいと思います!

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

2 participants