Shisa.ai
ニュース一覧に​戻る
リサーチ

Shisa-Gamma-7b-v1の​ダウンロード数が​100万回を​突破

公開から​1年を​経て、​当社の​モデルが​コミュニティで​広く​活用されている​ことを​改めて​実感しています。

Shisa-Gamma-7b-v1の​ダウンロード数が​100万回を​突破

Sakana AIに​よる​LLMの​進化的モデルマージに​関する​研究の​発表から​1年が​経過しました。​この​研究では、​当社の​shisa-gamma-7b-v1が​日本語バックボーンモデルと​して​採用されました。​この​重要な​成果は、​今年1月に​Nature Machine Intelligence誌にも​掲載されました。

当初の​予想を​大きく​上回り、​shisa-gamma-7b-v1の​累計ダウンロード数が​100万回を​突破いたしました。​この​モデルは、​Weights & Biasesが​運営する​日本語LLMリーダーボード​「Nejumi LLM Leaderboard」に​おいて、​昨年を​通して​トップクラスの​評価を​維持しました。

現在、​当社では​次世代の​shisa-v2-llama3.1-8b-previewの​開発を​進めております。​本モデルは、​従来比で​大幅な​性能向上を​実現し、​効率的な​トークナイゼーションと​広い​コンテキストウィンドウを​提供します。​ぜひ新しい​モデルも​お試しください。

最後に、​本プロジェクトの​実現を​支えてくださった​Mistral AIチーム、​Stability AI Japan、​そして​Jon Durbin氏を​はじめと​する​オープンソースAIコミュニティの​多大なる​貢献に​深く​感謝申し上げます。

ほかの​ニュース