論文の概要: Method Decoration (DeMe): A Framework for LLM-Driven Adaptive Method Generation in Dynamic IoT Environments
- arxiv url: http://arxiv.org/abs/2512.21817v1
- Date: Fri, 26 Dec 2025 01:08:40 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:06:10.375287
- Title: Method Decoration (DeMe): A Framework for LLM-Driven Adaptive Method Generation in Dynamic IoT Environments
- Title(参考訳): Method Decoration (DeMe): 動的IoT環境におけるLCM駆動型適応型メソッド生成のためのフレームワーク
- Authors: Hong Su,
- Abstract要約: 大規模言語モデル(LLM)のメソッド生成パスを変更するフレームワークであるメソッドデコレーション(DeMe)を提案する。
従来のルール強化とは異なり、DeMeの装飾はハードコードされておらず、代わりに、普遍的な行動原理、経験、観察された環境差から抽出される。
DeMeは、エージェントがメソッドパススルーの事前デコレーション、後デコレーション、中間ステップの修正、ステップ挿入によってコンテキストアウェア、安全アライメント、環境適応メソッドを生成することができる。
- 参考スコア(独自算出の注目度): 0.11844977816228043
- License:
- Abstract: Intelligent IoT systems increasingly rely on large language models (LLMs) to generate task-execution methods for dynamic environments. However, existing approaches lack the ability to systematically produce new methods when facing previously unseen situations, and they often depend on fixed, device-specific logic that cannot adapt to changing environmental conditions.In this paper, we propose Method Decoration (DeMe), a general framework that modifies the method-generation path of an LLM using explicit decorations derived from hidden goals, accumulated learned methods, and environmental feedback. Unlike traditional rule augmentation, decorations in DeMe are not hardcoded; instead, they are extracted from universal behavioral principles, experience, and observed environmental differences. DeMe enables the agent to reshuffle the structure of its method path-through pre-decoration, post-decoration, intermediate-step modification, and step insertion-thereby producing context-aware, safety-aligned, and environment-adaptive methods. Experimental results show that method decoration allows IoT devices to derive ore appropriate methods when confronting unknown or faulty operating conditions.
- Abstract(参考訳): インテリジェントIoTシステムは、動的環境のためのタスク実行メソッドを生成するために、大規模言語モデル(LLM)にますます依存している。
しかし, 既存の手法では, 未確認の状況に直面した場合に, 新たな手法を体系的に生成する能力が欠如しており, 環境条件の変化に適応できない固定されたデバイス固有の論理に依存していることが多い。
従来のルール強化とは異なり、DeMeの装飾はハードコードされておらず、代わりに、普遍的な行動原理、経験、観察された環境差から抽出される。
DeMeは、エージェントがメソッドパススルーの事前デコレーション、後デコレーション、中間ステップの修正、ステップ挿入によってコンテキストアウェア、安全アライメント、環境適応メソッドを生成することができる。
実験結果から,IoTデバイスが未知あるいは不良な動作条件に直面する場合に,適切な手法を導出できることが示唆された。
関連論文リスト
- Grounded Test-Time Adaptation for LLM Agents [75.62784644919803]
大規模言語モデル(LLM)ベースのエージェントは、新規で複雑な環境への一般化に苦慮している。
環境特化情報を活用することで, LLMエージェントを適応するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-11-06T22:24:35Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - A Fuzzy Logic Prompting Framework for Large Language Models in Adaptive and Uncertain Tasks [2.1756081703276]
動的でユーザ中心のタスクにまたがる大規模言語モデル(LLM)のより安全で適応的な利用をサポートするモジュール型プロンプトフレームワークを導入する。
本手法は,ファジィな足場論理と適応規則を符号化した制御スキーマと,自然言語境界プロンプトを組み合わせる。
シミュレーションされたインテリジェントなチューター設定では、このフレームワークは、複数のモデル間の足場品質、適応性、命令的アライメントを改善し、標準のベースラインを上回ります。
論文 参考訳(メタデータ) (2025-08-08T23:50:48Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - RISE: Robust Imitation through Stochastic Encoding [0.764671395172401]
本稿では,環境パラメータの誤った測定をポリシー学習に明示的に対応させる,新しい模倣学習フレームワークを提案する。
我々のフレームワークは、障害状態、向き、速度などのパラメータを潜在空間にエンコードし、テスト時間を改善する。
我々は,2つのロボットプラットフォームに対するアプローチを検証するとともに,目標達成性能をベースライン法と比較し,安全性の向上を図っている。
論文 参考訳(メタデータ) (2025-03-15T19:52:16Z) - Active Inference for Self-Organizing Multi-LLM Systems: A Bayesian Thermodynamic Approach to Adaptation [0.0]
本稿では,大規模言語モデル(LLM)とアクティブ推論を統合し,適応型言語エージェントを作成するための新しいアプローチを提案する。
本フレームワークは,3つの状態要因(確率,探索,情報状態)を用いて環境をモデル化する。
実験により、エージェントが環境力学の正確なモデルを開発することにより、このアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-12-10T16:34:47Z) - Joint Embedding Predictive Architectures Focus on Slow Features [56.393060086442006]
JEPA(Joint Embedding Predictive Architectures)は、再構築不要の代替手段を提供する。
我々は、VICRegとSimCLRで訓練されたJEPAのパフォーマンスを、報酬にアクセスできることなく完全にオフラインで分析する。
JEPAメソッドはステップ毎にノイズが変わるが、ノイズが修正されるとフェールする。
論文 参考訳(メタデータ) (2022-11-20T00:50:11Z) - Decorr: Environment Partitioning for Invariant Learning and OOD Generalization [10.799855921851332]
不変学習手法は、複数の環境にまたがる一貫した予測器を特定することを目的としている。
データに固有の環境がなければ、実践者はそれらを手動で定義しなければならない。
この環境分割は不変学習の有効性に影響を及ぼすが、いまだ過小評価されていない。
本稿では,低相関データサブセットを分離することで,データセットを複数の環境に分割することを提案する。
論文 参考訳(メタデータ) (2022-11-18T06:49:35Z) - AACC: Asymmetric Actor-Critic in Contextual Reinforcement Learning [13.167123175701802]
本稿では,強化学習(RL)における環境動態の変化に適応するタスクを定式化する。
次に、このような一般化タスクに対処するエンドツーエンドのアクター批判手法として、コンテキストRL(AACC)における非対称アクター批判を提案する。
シミュレーション環境において,既存のベースラインに対するAACCの性能改善を実験的に示す。
論文 参考訳(メタデータ) (2022-08-03T22:52:26Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。