AIMPACT メッセージ、5月12日(UTC+8)、WilliamBarrHeldがツイートでDelphiプロジェクトを紹介、Marinの第一歩として。 このプロジェクトは単一のレシピで複数の小さなモデルを事前訓練し、その後300倍に外挿し、250億パラメータ、6000億トークンの訓練実行を成功させ、誤差はわずか0.2%だった。 Delphiは予測可能なスケーリングを実現し、より良いオープンソースモデルの訓練を目指す。(出典:InFoQ)
Delphiプロジェクト:300倍の外挿予測大規模モデルのトレーニング、誤差はわずか0.2%
AIMPACT メッセージ、5月12日(UTC+8)、WilliamBarrHeldがツイートでDelphiプロジェクトを紹介、Marinの第一歩として。
このプロジェクトは単一のレシピで複数の小さなモデルを事前訓練し、その後300倍に外挿し、250億パラメータ、6000億トークンの訓練実行を成功させ、誤差はわずか0.2%だった。
Delphiは予測可能なスケーリングを実現し、より良いオープンソースモデルの訓練を目指す。(出典:InFoQ)