論文の概要: Instruction-Level Weight Shaping: A Framework for Self-Improving AI Agents
- arxiv url: http://arxiv.org/abs/2509.00251v1
- Date: Fri, 29 Aug 2025 21:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.145577
- Title: Instruction-Level Weight Shaping: A Framework for Self-Improving AI Agents
- Title(参考訳): インストラクション・レベルウェイト・シェーピング:AIエージェントを自己改善するフレームワーク
- Authors: Rimom Costa,
- Abstract要約: 大規模言語モデル (LLMs) は流動的であるが、ほとんどは事前訓練後に静的である。
新しい知識やシフトする知識は、通常、検索強化世代(RAG)や微調整と共に追加される。
ILWS(Instruction-Level Weight Shaping)を提案する。
キュレートされたシステム命令は、各セッション後に更新された外部の監査可能な擬似パラメータとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are fluent but largely static after pre-training; new or shifting knowledge is typically added with retrieval-augmented generation (RAG) or fine-tuning. RAG raises latency and engineering overhead and often fails to integrate facts; prompt engineering is brittle and can conflict with prior knowledge; fine-tuning is costly and risks catastrophic forgetting. We propose Instruction-Level Weight Shaping (ILWS): curated system instructions act as external, auditable pseudo-parameters updated after each session via reflection and user feedback. A Reflection Engine inspects conversation traces, diagnoses reasoning successes and failures, and proposes typed deltas $\Delta K=(\Delta S,\Delta U,\Delta T)$ over instructions, user preferences, and tools. Deltas are version-controlled, evaluated with a sliding window of 1-5 star ratings, auto-repaired on first failure, and rolled back on repeated failure. When an edit budget crosses a threshold, the agent compiles a rating-weighted synthetic set and distills matured instruction-space gains into parameters, converting prompt-space improvements into weight-space without downtime. ILWS makes explicit the low-rank shaping induced by context in transformer blocks, preserves governance, and removes per-call retrieval. In enterprise support it increased throughput 2.4-5.0x and cut audited hallucinations by about 80% versus a frozen baseline. In an Adobe Commerce Cloud proof of concept "L0 Support", it achieved 4-5x more tickets per hour and about 80% lower time per ticket, with autonomous instruction updates and optional tool synthesis. Because ILWS operates at the instruction layer until controlled distillation, it generalizes to dynamic domains (legal, medical, engineering) requiring adaptive reasoning, tool creation, and low-latency deployment.
- Abstract(参考訳): 大規模言語モデル(LLMs)は、学習前訓練後にほとんど静的であり、新しい知識やシフトする知識は、通常、検索強化世代(RAG)や微調整によって追加される。
RAGはレイテンシとエンジニアリングのオーバーヘッドを高め、事実の統合に失敗することが多い。
Instruction-Level Weight Shaping (ILWS: Instruction-Level Weight Shaping)を提案する。
Reflection Engineは会話のトレースを検査し、成功と失敗の理由を診断し、型付きデルタを$\Delta K=(\Delta S,\Delta U,\Delta T)$で提案する。
デルタはバージョン管理され、1-5個の星のレーティングのスライディングウィンドウで評価され、最初の失敗時に自動再生され、繰り返しの失敗でロールバックされる。
編集予算がしきい値を超えたとき、エージェントは評価重み付き合成セットをコンパイルし、成熟した命令空間ゲインをパラメータに蒸留し、即時空間の改善をダウンタイムなしで重み空間に変換する。
ILWSは、トランスフォーマーブロックのコンテキストによって引き起こされる低ランクなシェーピングを明確にし、ガバナンスを保存し、呼び出し毎の検索を削除する。
エンタープライズサポートでは、2.4-5.0xのスループットを向上し、凍結ベースラインに対して監査幻覚を約80%削減した。
Adobe Commerce Cloud の概念実証 "L0 Support" では,自動命令更新とオプションツール合成によって,1時間あたり4~5倍のチケットが,チケットあたり約80%の時間で達成された。
ILWSは蒸留が制御されるまで命令層で動作するため、適応推論、ツール作成、低レイテンシ展開を必要とする動的ドメイン(法、医学、工学)に一般化される。
関連論文リスト
- Act-Observe-Rewrite: Multimodal Coding Agents as In-Context Policy Learners for Robot Manipulation [0.0]
本稿では、LLMエージェントがロボット操作ポリシーを改善するためのフレームワークであるAct-Observe-Rewrite(AOR)を提案する。
AORはLLM推論の単位として、完全な低レベルモーター制御を実装している。
エージェントは、デモンストレーション、報酬工学、勾配更新なしで高い成功率を達成する。
論文 参考訳(メタデータ) (2026-03-03T22:15:55Z) - Pull Requests as a Training Signal for Repo-Level Code Editing [49.82435173554125]
Clean Pull Request(Clean-PR)は、現実のGitHubプルリクエストをリポジトリレベルの編集のトレーニングシグナルとして活用する、トレーニング中のパラダイムである。
ノイズの多いプルリクエストの差分を,再構築と検証を通じて検索/リプレース編集ブロックに変換する,スケーラブルなパイプラインを導入する。
SWE-benchでは,SWE-bench Liteが13.6%,SWE-bench Verifiedが12.3%,命令調整ベースラインが大幅に向上した。
論文 参考訳(メタデータ) (2026-02-07T09:22:25Z) - ET-Agent: Incentivizing Effective Tool-Integrated Reasoning Agent via Behavior Calibration [68.89572566071575]
ETAgentはエージェントのツール使用行動を調整するためのトレーニングフレームワークである。
過誤行動パターンを最適行動に段階的に校正するように設計されている。
論文 参考訳(メタデータ) (2026-01-11T11:05:26Z) - Toward Training Superintelligent Software Agents through Self-Play SWE-RL [66.11447353341926]
セルフプレイSWE-RLは、超知能ソフトウェアエージェントのトレーニングパラダイムに向けた第一歩である。
当社のアプローチでは,ソースコードとインストール済みの依存関係を備えたサンドボックスリポジトリへのアクセスのみを必要としています。
我々の成果は、早い段階で、エージェントが現実世界のソフトウェアリポジトリから広範囲にわたる学習経験を自律的に収集する道のりを示唆している。
論文 参考訳(メタデータ) (2025-12-21T00:49:40Z) - SSA3D: Text-Conditioned Assisted Self-Supervised Framework for Automatic Dental Abutment Design [52.57094737117145]
本稿では、再構成ブランチと回帰ブランチを備えたデュアルブランチアーキテクチャを用いた自己教師付き自動支台築造設計フレームワーク(SS$A3$D)を提案する。
回帰分岐は、教師付き学習下での分配パラメータを予測し、個別の事前学習と微調整のプロセスを排除します。
また、他の手法と比較して最先端性能を実現し、自動当接設計の精度と効率を大幅に向上させる。
論文 参考訳(メタデータ) (2025-12-12T12:08:05Z) - Soft Instruction De-escalation Defense [36.36851291734834]
大規模言語モデル(LLM)は、ますます外部環境と相互作用するエージェントシステムにデプロイされている。
これにより、信頼できないデータを扱う際に、インジェクションをインジェクションすることが可能になる。
ツール拡張LDMエージェント用に設計された簡易かつ効果的な反復的プロンプト衛生ループSICを提案する。
論文 参考訳(メタデータ) (2025-10-24T00:04:07Z) - Reinforcement Learning for Machine Learning Engineering Agents [52.03168614623642]
強化学習によって改善される弱いモデルによって支援されるエージェントは、はるかに大きいが静的モデルによって支援されるエージェントよりも優れていることを示す。
分散非同期RLフレームワークにおいて,高コストかつ高利回りな動作を増幅するための時間依存性の勾配更新を提案する。
また,早期に失敗するプログラムとほぼ正しくないプログラムを区別し,部分クレジットを提供する環境機器を提案する。
論文 参考訳(メタデータ) (2025-09-01T18:04:10Z) - RePaCA: Leveraging Reasoning Large Language Models for Static Automated Patch Correctness Assessment [0.0]
本稿では,Large Language Models (LLM) を利用した新しい静的APCA手法であるRePaCAを紹介する。
提案手法は,83.1%の精度と84.8%のF1スコアで最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-07-30T11:21:09Z) - Drag-and-Drop LLMs: Zero-Shot Prompt-to-Weights [75.83625828306839]
textbfDrag-and-Drop LLMs (textitDnD)は、未ラベルのタスクプロンプトをLoRAの重み更新に直接マッピングすることで、タスク単位のトレーニングを廃止する。
ライトウェイトテキストエンコーダは、各プロンプトバッチを条件埋め込みに蒸留し、カスケードされた超畳み込みデコーダによって全LORA行列に変換する。
論文 参考訳(メタデータ) (2025-06-19T15:38:21Z) - Large Continual Instruction Assistant [59.585544987096974]
CIT(Continuous Instruction Tuning)は、大規模モデルにデータによる人間の意図データに従うよう指示するために用いられる。
既存の更新勾配は、CITプロセス中に前のデータセットのパフォーマンスを著しく損なうことになる。
本稿では,この課題に対処する汎用的な連続的命令チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T11:24:59Z) - Can Large Vision-Language Models Correct Semantic Grounding Errors By Themselves? [61.899791071654654]
本稿では,視覚言語モデル(VLM)が,フィードバックの「受信」によって意味的接地を改善することができるかどうかを検討する。
適切に刺激すれば、VLMは1ステップと反復の両方でフィードバックを活用できる。
検討したすべての設定において、すべてのモデルにまたがる自動フィードバックを用いて、基底精度を一貫して改善することを示す。
論文 参考訳(メタデータ) (2024-04-09T17:59:04Z) - Steering Language Models With Activation Engineering [40.04138190785384]
アクティベーションエンジニアリングを導入し、モデル出力を制御(またはステア)するためにアクティベーションの推論時間を変更する。
LLaMA-3 や OPT などのモデルを用いて, 負対正の感情変化と解毒を行う。
ActAddは、ターゲット外のタスクのパフォーマンスを維持しながら、高レベルの出力特性(トピックや感情など)を推論時間で制御する。
論文 参考訳(メタデータ) (2023-08-20T12:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。