論文の概要: ALAS: Autonomous Learning Agent for Self-Updating Language Models
- arxiv url: http://arxiv.org/abs/2508.15805v1
- Date: Thu, 14 Aug 2025 06:55:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.547716
- Title: ALAS: Autonomous Learning Agent for Self-Updating Language Models
- Title(参考訳): ALAS: 自己更新型言語モデルのための自律学習エージェント
- Authors: Dhruv Atreja,
- Abstract要約: 大規模言語モデル(LLM)は、しばしば知識の切れ目があり、新しい情報に対する正確性を制限する。
我々は、LLMの知識を最小限の介入で継続的に更新するモジュールパイプラインであるALASを紹介する。
ALASは、ターゲットドメインの学習カリキュラムを自律的に生成し、Webから最新の情報を(引用とともに)検索し、質問応答訓練データに蒸留し、教師付き微調整によりモデルを微調整する。
我々は,ALASが知識更新クエリに対して90%の精度でエンジニアリングオーバーヘッドを最小限に抑えることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) often have a fixed knowledge cutoff, limiting their accuracy on emerging information. We present ALAS (Autonomous Learning Agent System), a modular pipeline that continuously updates an LLM's knowledge with minimal human intervention. ALAS autonomously generates a learning curriculum for a target domain, retrieves up-to-date information from the web (with citations), distills this into question-answer training data, and fine-tunes the model through supervised fine-tuning (SFT) and direct preference optimization (DPO). It iteratively evaluates performance and revises the curriculum, enabling long-term continual learning. We demonstrate ALAS's ability to self-improve a model on rapidly evolving domains (e.g., new Python releases, latest security CVEs, academic trends), significantly boosting post-cutoff question answering accuracy (from 15% to 90% on average) without manual dataset curation. The system emphasizes modularity and reproducibility: each component (planning, retrieval, distillation, memory, fine-tuning) is interchangeable and built on standard APIs. We discuss comparative baselines (e.g., retrieval-augmented generation vs. fine-tuning) and show that ALAS achieves 90% accuracy on knowledge-updated queries with minimal engineering overhead. Finally, we outline limitations (cost, dependency on source quality) and future directions for autonomous lifelong learning in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、しばしば知識の切れ目があり、新しい情報に対する正確性を制限する。
我々は,LLMの知識を最小限の介入で継続的に更新するモジュールパイプラインであるALAS(Autonomous Learning Agent System)を提案する。
ALASは、ターゲットドメインの学習カリキュラムを自律的に生成し、Webから最新情報を検索し(引用とともに)、質問応答訓練データに蒸留し、教師付き微調整(SFT)と直接選好最適化(DPO)を通してモデルを微調整する。
パフォーマンスを反復的に評価し、カリキュラムを改訂し、長期的な継続的な学習を可能にする。
我々は、ALASが急速に進化するドメイン(例えば、新しいPythonリリース、最新のセキュリティCVE、学術トレンド)のモデルを自己改善する能力を示し、手動のデータセットキュレーションなしで、カット後の質問応答精度(平均15%から90%)を大幅に向上させる。
各コンポーネント(計画、検索、蒸留、メモリ、微調整)は交換可能であり、標準API上に構築されている。
比較ベースライン(例えば、検索強化生成と微調整)について議論し、ALASが最小のエンジニアリングオーバーヘッドで知識更新クエリに対して90%の精度を達成することを示す。
最後に、LLMにおける自律的生涯学習の限界(コスト、ソース品質への依存性)と今後の方向性について概説する。
関連論文リスト
- Comparing Knowledge Injection Methods for LLMs in a Low-Resource Regime [13.230760040927496]
大規模言語モデルに小さな非構造化情報を注入する作業について検討する。
制限されたデータに対する事前トレーニングを継続するだけで、控えめな改善が得られます。
私たちは、小さなデータ体制における忘れる現象に光を当て、新しいコンテンツ学習と既存の能力維持の微妙なバランスを図った。
論文 参考訳(メタデータ) (2025-08-08T09:48:32Z) - Self-Adapting Language Models [44.50247531174026]
大規模言語モデル(LLM)は強力だが静的であり、新しいタスクや知識、例に対応して重みを適応するメカニズムが欠如している。
我々は,自己適応型LSM(Self-Adapting LLMs, SEAL)を導入する。
知識の定式化と数ショットの一般化の実験により、SEALは自己指向適応が可能な言語モデルに向けた有望なステップであることが示された。
論文 参考訳(メタデータ) (2025-06-12T17:48:13Z) - Towards Efficient and Effective Alignment of Large Language Models [7.853945494882636]
大規模言語モデル(LLM)は多様なタスクにまたがる優れた能力を示すが、それらを効率的かつ効果的に人間の期待に合わせることは重要な課題である。
この論文は、データ収集、トレーニング、評価において新しい方法論を導入することで、LCMアライメントを推し進める。
論文 参考訳(メタデータ) (2025-06-11T02:08:52Z) - UniErase: Unlearning Token as a Universal Erasure Primitive for Language Models [54.75551043657238]
学習可能なパラメトリック接尾辞(アンラーニングトークン)を用いて、ターゲットとなる忘れ行動に向けて言語モデルを操る新しいアンラーニングパラダイムであるUniEraseを紹介する。
UniEraseは、実世界の知識設定の下で、バッチ、シーケンシャル、そして正確なアンラーニングで、最先端のSOTA(State-of-the-art)パフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-21T15:53:28Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - LLMs can learn self-restraint through iterative self-reflection [57.26854891567574]
大規模言語モデル(LLM)は、特定のトピックに関連する知識と不確実性に基づいて、その振る舞いを動的に適応できなければならない。
この適応的行動は、私たちが自己規制と呼ぶもので、教えるのは簡単ではない。
モデルが信頼している場合にのみ応答を生成できるようにするユーティリティ関数を考案する。
論文 参考訳(メタデータ) (2024-05-15T13:35:43Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。