※ v0.1の内容です(2024/03/04時点)
大規模言語モデルをフルスクラッチする練習 (環境構築ー事前学習まで)|Kan Hatakeyama
理解したこと、気になったことをメモ
トークナイザの学習~事前学習~fine-tuningまで
今回の環境はGCP、今記載されているABCIやさくらインターネットの手順は使える?
megatron-deepspeedのexampleスクリプトを実行するshファイルだけ?
↑を理解しないとどこまで手を加えられそうかわからないかも
train_sentencepiece_tokenizer.py