Delphiプロジェクト:300倍の外挿予測大規模モデルのトレーニング、誤差はわずか0.2%

AIMPACT メッセージ、5月12日(UTC+8)、WilliamBarrHeldがツイートでDelphiプロジェクトを紹介、Marinの第一歩として。
このプロジェクトは単一のレシピで複数の小さなモデルを事前訓練し、その後300倍に外挿し、250億パラメータ、6000億トークンの訓練実行を成功させ、誤差はわずか0.2%だった。
Delphiは予測可能なスケーリングを実現し、より良いオープンソースモデルの訓練を目指す。(出典:InFoQ)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし