We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
当初予定していたgpt2-mediumは、モデルの層のサイズが非常に大きく、計算機サーバ(susanoo:rtx3080 12GB)ではメモリのオーバーフローでFine Tuning が不可能であることが判明
The text was updated successfully, but these errors were encountered:
Distlgpt2という軽量化・高速化されたモデルに変更
TrainとTest両方のデータセットをフルデータで、メモリオーバーフローを引き起こさずにFine Tuning が行えることを確認
10000epoch学習し、モデルを保存済み
Sorry, something went wrong.
Fine Tuningに用いるデータの違いによる評価の変化
TrainとTestデータをマージ後FineTuneして生成したデータセット CV = 0.952277695 LB = 0.4653222317277211
TrainデータのみでFine Tuneして生成したデータセット CV = LB =
No branches or pull requests
当初予定していたgpt2-mediumは、モデルの層のサイズが非常に大きく、計算機サーバ(susanoo:rtx3080 12GB)ではメモリのオーバーフローでFine Tuning が不可能であることが判明
The text was updated successfully, but these errors were encountered: