Sakana AI、Doc-to-LoRAとText-to-LoRAを発表 LLMのカスタマイズを瞬時に高速化
Sakana AIは、ハイパーネットワークを用いてLoRAアダプタを即時生成するDoc-to-LoRAとText-to-LoRAの2つの研究手法を発表し、LLMのカスタマイズをより迅速かつアクセスしやすくした。これらは新しいタスクへの適応や文書の内部化をサブ秒レテンシで実現し、拡張コンテキストでほぼ完璧な精度を達成する。
Sakana AIは、大規模言語モデル(LLM)のカスタマイズをより迅速かつアクセスしやすくするための革新的な研究手法、Doc-to-LoRAとText-to-LoRAを発表した。
これらの手法は、ハイパーネットワークを訓練してLoRAアダプタを即時生成し、単一のフォワードパスで新しい情報内部化やタスク適応を可能にする。生物系が持つ長期記憶の耐久性と限定的な手がかりからの迅速適応に着想を得て、従来のLLMが抱えるfine-tuningやコンテキスト蒸留といった高コスト・時間のかかる更新、または長大なプロンプト依存の限界を克服する。
核心はコスト償却:ハイパーネットワークを一度メタ訓練し、更新ルールをメタ学習することで、複雑なパイプラインを低コスト推論に変える。Text-to-LoRAは自然言語記述のみで未見タスクにモデルを特化させる。Doc-to-LoRAは事実文書を内部化し、ベースモデルのコンテキストウィンドウの5倍長いneedle-in-a-haystackタスクでほぼ完璧な精度を達成する。さらに、ビジョン言語モデルからの視覚情報をテキストオンリーLLMへ転移し、重みだけで画像分類を可能にする。
両手法ともサブ秒レテンシで動作し、更新オーバーヘッドなしに迅速実験を支える。これにより、エンドユーザーがシンプルなテキスト入力で基盤モデルをカスタマイズする技術的障壁を低減する。
Sakana AIは論文とコードを公開した:
Doc-to-LoRA
- 論文: [arXiv:2602.15902](arxiv.org/abs/2602.15902)
- コード: [GitHub](github.com/SakanaAI/Doc
- to
- LoRA)
Text-to-LoRA
- 論文: [arXiv:2506.06105](arxiv.org/abs/2506.06105)
- コード: [GitHub](github.com/SakanaAI/Text
- to
- LoRA)
重要ポイント
- ハイパーネットワークがLoRAアダプタを即時生成
- 適応にサブ秒レテンシ
- ベースコンテキストウィンドウの5倍長いneedle-in-a-haystackタスクでほぼ完璧な精度
- ビジョン言語モデルからテキストオンリーLLMへの視覚情報転移
- 両手法のコードと論文を公開