論文の概要: Instruction-Level Weight Shaping: A Framework for Self-Improving AI Agents
- arxiv url: http://arxiv.org/abs/2509.00251v1
- Date: Fri, 29 Aug 2025 21:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.145577
- Title: Instruction-Level Weight Shaping: A Framework for Self-Improving AI Agents
- Title(参考訳): インストラクション・レベルウェイト・シェーピング:AIエージェントを自己改善するフレームワーク
- Authors: Rimom Costa,
- Abstract要約: 大規模言語モデル (LLMs) は流動的であるが、ほとんどは事前訓練後に静的である。
新しい知識やシフトする知識は、通常、検索強化世代(RAG)や微調整と共に追加される。
ILWS(Instruction-Level Weight Shaping)を提案する。
キュレートされたシステム命令は、各セッション後に更新された外部の監査可能な擬似パラメータとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are fluent but largely static after pre-training; new or shifting knowledge is typically added with retrieval-augmented generation (RAG) or fine-tuning. RAG raises latency and engineering overhead and often fails to integrate facts; prompt engineering is brittle and can conflict with prior knowledge; fine-tuning is costly and risks catastrophic forgetting. We propose Instruction-Level Weight Shaping (ILWS): curated system instructions act as external, auditable pseudo-parameters updated after each session via reflection and user feedback. A Reflection Engine inspects conversation traces, diagnoses reasoning successes and failures, and proposes typed deltas $\Delta K=(\Delta S,\Delta U,\Delta T)$ over instructions, user preferences, and tools. Deltas are version-controlled, evaluated with a sliding window of 1-5 star ratings, auto-repaired on first failure, and rolled back on repeated failure. When an edit budget crosses a threshold, the agent compiles a rating-weighted synthetic set and distills matured instruction-space gains into parameters, converting prompt-space improvements into weight-space without downtime. ILWS makes explicit the low-rank shaping induced by context in transformer blocks, preserves governance, and removes per-call retrieval. In enterprise support it increased throughput 2.4-5.0x and cut audited hallucinations by about 80% versus a frozen baseline. In an Adobe Commerce Cloud proof of concept "L0 Support", it achieved 4-5x more tickets per hour and about 80% lower time per ticket, with autonomous instruction updates and optional tool synthesis. Because ILWS operates at the instruction layer until controlled distillation, it generalizes to dynamic domains (legal, medical, engineering) requiring adaptive reasoning, tool creation, and low-latency deployment.
- Abstract(参考訳): 大規模言語モデル(LLMs)は、学習前訓練後にほとんど静的であり、新しい知識やシフトする知識は、通常、検索強化世代(RAG)や微調整によって追加される。
RAGはレイテンシとエンジニアリングのオーバーヘッドを高め、事実の統合に失敗することが多い。
Instruction-Level Weight Shaping (ILWS: Instruction-Level Weight Shaping)を提案する。
Reflection Engineは会話のトレースを検査し、成功と失敗の理由を診断し、型付きデルタを$\Delta K=(\Delta S,\Delta U,\Delta T)$で提案する。
デルタはバージョン管理され、1-5個の星のレーティングのスライディングウィンドウで評価され、最初の失敗時に自動再生され、繰り返しの失敗でロールバックされる。
編集予算がしきい値を超えたとき、エージェントは評価重み付き合成セットをコンパイルし、成熟した命令空間ゲインをパラメータに蒸留し、即時空間の改善をダウンタイムなしで重み空間に変換する。
ILWSは、トランスフォーマーブロックのコンテキストによって引き起こされる低ランクなシェーピングを明確にし、ガバナンスを保存し、呼び出し毎の検索を削除する。
エンタープライズサポートでは、2.4-5.0xのスループットを向上し、凍結ベースラインに対して監査幻覚を約80%削減した。
Adobe Commerce Cloud の概念実証 "L0 Support" では,自動命令更新とオプションツール合成によって,1時間あたり4~5倍のチケットが,チケットあたり約80%の時間で達成された。
ILWSは蒸留が制御されるまで命令層で動作するため、適応推論、ツール作成、低レイテンシ展開を必要とする動的ドメイン(法、医学、工学)に一般化される。
関連論文リスト
- Reinforcement Learning for Machine Learning Engineering Agents [52.03168614623642]
強化学習によって改善される弱いモデルによって支援されるエージェントは、はるかに大きいが静的モデルによって支援されるエージェントよりも優れていることを示す。
分散非同期RLフレームワークにおいて,高コストかつ高利回りな動作を増幅するための時間依存性の勾配更新を提案する。
また,早期に失敗するプログラムとほぼ正しくないプログラムを区別し,部分クレジットを提供する環境機器を提案する。
論文 参考訳(メタデータ) (2025-09-01T18:04:10Z) - RePaCA: Leveraging Reasoning Large Language Models for Static Automated Patch Correctness Assessment [0.0]
本稿では,Large Language Models (LLM) を利用した新しい静的APCA手法であるRePaCAを紹介する。
提案手法は,83.1%の精度と84.8%のF1スコアで最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-07-30T11:21:09Z) - Drag-and-Drop LLMs: Zero-Shot Prompt-to-Weights [75.83625828306839]
textbfDrag-and-Drop LLMs (textitDnD)は、未ラベルのタスクプロンプトをLoRAの重み更新に直接マッピングすることで、タスク単位のトレーニングを廃止する。
ライトウェイトテキストエンコーダは、各プロンプトバッチを条件埋め込みに蒸留し、カスケードされた超畳み込みデコーダによって全LORA行列に変換する。
論文 参考訳(メタデータ) (2025-06-19T15:38:21Z) - Large Continual Instruction Assistant [59.585544987096974]
CIT(Continuous Instruction Tuning)は、大規模モデルにデータによる人間の意図データに従うよう指示するために用いられる。
既存の更新勾配は、CITプロセス中に前のデータセットのパフォーマンスを著しく損なうことになる。
本稿では,この課題に対処する汎用的な連続的命令チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T11:24:59Z) - Can Large Vision-Language Models Correct Semantic Grounding Errors By Themselves? [61.899791071654654]
本稿では,視覚言語モデル(VLM)が,フィードバックの「受信」によって意味的接地を改善することができるかどうかを検討する。
適切に刺激すれば、VLMは1ステップと反復の両方でフィードバックを活用できる。
検討したすべての設定において、すべてのモデルにまたがる自動フィードバックを用いて、基底精度を一貫して改善することを示す。
論文 参考訳(メタデータ) (2024-04-09T17:59:04Z) - Steering Language Models With Activation Engineering [40.04138190785384]
アクティベーションエンジニアリングを導入し、モデル出力を制御(またはステア)するためにアクティベーションの推論時間を変更する。
LLaMA-3 や OPT などのモデルを用いて, 負対正の感情変化と解毒を行う。
ActAddは、ターゲット外のタスクのパフォーマンスを維持しながら、高レベルの出力特性(トピックや感情など)を推論時間で制御する。
論文 参考訳(メタデータ) (2023-08-20T12:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。