全員が読むべき情報を共有いただけますと幸いです。

読むべき

LLaMA:https://arxiv.org/abs/2302.13971

(Readbleで翻訳しています ダウンロードいただき2ページ表示にすると利用しやすいです)

al-230213971.pdf

LLaMA2:https://arxiv.org/abs/2307.09288

al-230213971.pdf

Qwen Technical Report: https://arxiv.org/abs/2309.16609

al-230213971.pdf

日本語に特化した 60 億パラメータ規模の GPT モデルの構築と評価(リコー):https://www.anlp.jp/proceedings/annual_meeting/2023/pdf_dir/H9-4.pdf

Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました:https://note.com/elyza/n/na405acaca130

ELYZAが公開した日本語LLM「ELYZA-japanese-Llama-2-7b」についての解説 : (1) 事前学習編;https://zenn.dev/elyza/articles/2fd451c944649d#日本語語彙の追加-(elyza-japanese-llama-2-7b-fast、ないし...-fast-instructのみ該当)

LLMをゼロからトレーニングするためのベストプラクティス:https://assets.website-files.com/5ac6b7f2924c656f2b13a88c/6452dde9fa096b2104d6f728_LLM Whitepaper Japanese Final.pdf