Common Crawl

Instruction Tuning

Instruction Tuningとは、特定のタスクやアプリケーションに合わせてAIモデルの振る舞いを調整するプロセスのことを指します。具体的には、人間の監督の下で、AIモデルに対して特定の命令セットやガイドラインを提供し、そのモデルがより望ましいまたは特定の方法で応答するようにトレーニングします。このプロセスは、モデルの一般的なパフォーマンスを向上させるだけでなく、特定のタイプのタスクや質問に対するモデルの応答品質を高めることを目的としています。

Instruction Tuningの一般的なステップには以下のようなものがあります:

  1. ターゲットとするタスクの定義: AIモデルに実行させたい具体的なタスクや問題領域を特定します。
  2. 命令セットの開発: タスクを達成するためにモデルが従うべき指示やガイドラインを作成します。
  3. トレーニングデータの準備: 指示に従ってモデルがどのように応答すべきかを示す例を含むトレーニングデータを準備します。
  4. モデルのトレーニング: 準備したデータセットを使用してモデルをトレーニングし、特定の命令に対する応答を改善します。
  5. 評価と調整: モデルのパフォーマンスを評価し、必要に応じて追加のトレーニングセッションや命令の調整を行います。

Instruction Tuningは、モデルが特定のコンテキストやドメインにおけるニュアンスを理解し、より関連性の高い、精度の高い応答を提供できるようにすることで、AIモデルの有用性を高める手法です。このアプローチは、顧客サービスの自動化、言語翻訳の最適化、特定の業界や専門分野に特化した情報提供など、さまざまな用途で利用されています。

fine tuningとの違い

Fineチューニング

Instruction Tuning

スケーリング則

計算能⼒が予め決まっているときに、パラメータ数や訓練データ量などのハイパーパ ラメータを合理的に決定するために有⽤な法則

パラメータ数と訓練データ量は1:1の⽐率で増やしていくのがよいことが実験的に⽰された

基盤モデルとは

基盤モデル(Foundation Model)は幅広いデータで事前学習された様々なタスクに応用可能な汎用的な機械学習モデル

大規模データx大規模パラメータが特徴 パラメータはモデルの大きさのこと ○ モデルが大きいほど情報の記憶能力や処理能力が良くなる

Hugging Face Datasets

「HuggingFace Datasets」は、自然言語処理などのデータセットに簡単アクセスおよび共有するためのライブラリ

パープレキシティ(英: perplexity)は、確率分布や確率モデルがサンプルをどの程度正確に予測するかを示す指標

PaLMについて

モデル:540BパラメータのTransformer LM

訓練データ:780Bトークン

翻訳能力の獲得

訓練データ中に偶発的に含まれている対訳

メガトロン

Deep-Speed