Common Crawl
Webサイトをクローリングしたアーカイブを無償提供している非営利団体
※クローリングとは、プログラムがリンクをたどってWebサイトを巡回し、Webページにある情報を複製・保存することです。
現時点でアクセス可能なアーカイブの総量は 251,325,355,174 ページ
Instruction Tuning
Instruction Tuningとは、特定のタスクやアプリケーションに合わせてAIモデルの振る舞いを調整するプロセスのことを指します。具体的には、人間の監督の下で、AIモデルに対して特定の命令セットやガイドラインを提供し、そのモデルがより望ましいまたは特定の方法で応答するようにトレーニングします。このプロセスは、モデルの一般的なパフォーマンスを向上させるだけでなく、特定のタイプのタスクや質問に対するモデルの応答品質を高めることを目的としています。
Instruction Tuningの一般的なステップには以下のようなものがあります:
Instruction Tuningは、モデルが特定のコンテキストやドメインにおけるニュアンスを理解し、より関連性の高い、精度の高い応答を提供できるようにすることで、AIモデルの有用性を高める手法です。このアプローチは、顧客サービスの自動化、言語翻訳の最適化、特定の業界や専門分野に特化した情報提供など、さまざまな用途で利用されています。
fine tuningとの違い
スケーリング則
計算能⼒が予め決まっているときに、パラメータ数や訓練データ量などのハイパーパ ラメータを合理的に決定するために有⽤な法則
パラメータ数と訓練データ量は1:1の⽐率で増やしていくのがよいことが実験的に⽰された
基盤モデルとは
基盤モデル(Foundation Model)は幅広いデータで事前学習された様々なタスクに応用可能な汎用的な機械学習モデル
大規模データx大規模パラメータが特徴 パラメータはモデルの大きさのこと ○ モデルが大きいほど情報の記憶能力や処理能力が良くなる
Hugging Face Datasets
「HuggingFace Datasets」は、自然言語処理などのデータセットに簡単アクセスおよび共有するためのライブラリ
パープレキシティ(英: perplexity)は、確率分布や確率モデルがサンプルをどの程度正確に予測するかを示す指標
PaLMについて
モデル:540BパラメータのTransformer LM
訓練データ:780Bトークン
翻訳能力の獲得
訓練データ中に偶発的に含まれている対訳
メガトロン
Deep-Speed