論文の概要: Adaptive RAN Slicing Control via Reward-Free Self-Finetuning Agents
- arxiv url: http://arxiv.org/abs/2603.10564v1
- Date: Wed, 11 Mar 2026 09:14:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.869314
- Title: Adaptive RAN Slicing Control via Reward-Free Self-Finetuning Agents
- Title(参考訳): Reward-Free Self-Finetuning Agentによる適応RANスライシング制御
- Authors: Yuanhao Li, Haozhe Wang, Geyong Min, Nektarios Georgalas, Wang Miao,
- Abstract要約: 本稿では,エージェントシステムが環境との直接対話を通じて継続的に学習することを可能にする,新たな自己ファインタニングフレームワークを提案する。
本フレームワークは,対話履歴から好みのデータセットを構築するために,自律的な言語フィードバックを生成するバイパースペクティブ・リフレクション機構を実装している。
その後の嗜好に基づく微調整プロセスは、長い水平体験をモデルのパラメータに蒸留する。
実験結果から,我々のフレームワークは,サンプル効率,安定性,マルチメトリック最適化において,標準強化学習(RL)ベースラインと既存のLarge Language Model(LLM)ベースエージェントよりも優れていた。
- 参考スコア(独自算出の注目度): 26.34195733862222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of Generative AI models into AI-native network systems offers a transformative path toward achieving autonomous and adaptive control. However, the application of such models to continuous control tasks is impeded by intrinsic architectural limitations, including finite context windows, the lack of explicit reward signals, and the degradation of the long context. This paper posits that the key to unlocking robust continuous control is enabling agents to internalize experience by distilling it into their parameters, rather than relying on prompt-based memory. To this end, we propose a novel self-finetuning framework that enables agentic systems to learn continuously through direct interaction with the environment, bypassing the need for handcrafted rewards. Our framework implements a bi-perspective reflection mechanism that generates autonomous linguistic feedback to construct preference datasets from interaction history. A subsequent preference-based fine-tuning process distills long-horizon experiences into the model's parameters. We evaluate our approach on a dynamic Radio Access Network (RAN) slicing task, a challenging multi-objective control problem that requires the resolution of acute trade-offs between spectrum efficiency, service quality, and reconfiguration stability under volatile network conditions. Experimental results show that our framework outperforms standard Reinforcement Learning (RL) baselines and existing Large Language Model (LLM)-based agents in sample efficiency, stability, and multi-metric optimization. These findings demonstrate the potential of self-improving generative agents for continuous control tasks, paving the way for future AI-native network infrastructure.
- Abstract(参考訳): 生成AIモデルのAIネイティブネットワークシステムへの統合は、自律的かつ適応的な制御を達成するための変革的なパスを提供する。
しかし、そのようなモデルを連続制御タスクに適用することは、有限コンテキストウィンドウ、明示的な報酬信号の欠如、長いコンテキストの劣化など、固有のアーキテクチャ上の制約によって妨げられる。
本稿では,堅牢な連続制御の鍵は,エージェントがプロンプトベースのメモリに頼るのではなく,それをパラメータに蒸留することで,経験を内部化できることを示唆する。
そこで本研究では,エージェントシステムが環境との直接的なインタラクションを通じて,手作り報酬の必要性を回避し,継続的な学習を可能にする,新たな自己組織化フレームワークを提案する。
本フレームワークは,対話履歴から好みのデータセットを構築するために,自律的な言語フィードバックを生成するバイパースペクティブ・リフレクション機構を実装している。
その後の嗜好に基づく微調整プロセスは、長い水平体験をモデルのパラメータに蒸留する。
我々は、スペクトル効率、サービス品質、揮発性ネットワーク条件下での再構成安定性の急激なトレードオフの解決を必要とする、多目的制御問題である、動的無線アクセスネットワーク(RAN)スライシングタスクに対するアプローチを評価した。
実験結果から,我々のフレームワークは,サンプル効率,安定性,マルチメトリック最適化において,標準強化学習(RL)ベースラインと既存のLarge Language Model(LLM)ベースエージェントよりも優れていた。
これらの結果は、継続的制御タスクのための自己改善型生成エージェントの可能性を示し、将来のAIネイティブネットワークインフラストラクチャへの道を開いた。
関連論文リスト
- ScaleWeaver: Weaving Efficient Controllable T2I Generation with Multi-Scale Reference Attention [86.93601565563954]
ScaleWeaverは、高度な視覚的自己回帰(VAR)モデルに基づいて、高忠実で制御可能な生成を実現するために設計されたフレームワークである。
提案された参照注意モジュールは image$rightarrow$condition から不要な注意を排除し、計算コストを削減している。
実験によると、ScaleWeaverは、拡散ベースの方法よりも優れた効率を実現しつつ、高品質な生成と正確な制御を提供する。
論文 参考訳(メタデータ) (2025-10-16T17:00:59Z) - Efficient Onboard Vision-Language Inference in UAV-Enabled Low-Altitude Economy Networks via LLM-Enhanced Optimization [61.55616421408666]
低高度経済ネットワーク(LAENets)は、航空監視、環境検知、セマンティックデータ収集など、様々な応用を可能にしている。
オンボードビジョン(VLM)は、リアルタイムな推論を提供するが、オンボードの動的ネットワーク条件は限られている。
動的LEENet条件下での通信効率を向上させるUAV対応LEENetシステムを提案する。
論文 参考訳(メタデータ) (2025-10-11T05:11:21Z) - From Agentification to Self-Evolving Agentic AI for Wireless Networks: Concepts, Approaches, and Future Research Directions [70.72279728350763]
自律進化型エージェント人工知能(AI)は、将来の無線システムに新しいパラダイムを提供する。
静的AIモデルとは異なり、自己進化エージェントは、モデルやツールを更新し、環境ダイナミクスに対応する自律進化サイクルを組み込む。
本稿では,自己進化型エージェントAIの概要を概説し,その階層化アーキテクチャ,ライフサイクル,鍵となる技術について述べる。
論文 参考訳(メタデータ) (2025-10-07T05:45:25Z) - AutoDrive-R$^2$: Incentivizing Reasoning and Self-Reflection Capacity for VLA Model in Autonomous Driving [37.260140808367716]
本稿では,自律運転システムの推論能力と自己回帰能力を両立させる新しいVLAフレームワークであるAutoDrive-R$2$を提案する。
まず,教師付き微調整のための新しいCoTデータセット nuScenesR$2$-6K を提案する。
次に, グループ相対政策最適化(GRPO)アルゴリズムを用いて, 信頼性の高い滑らかさと現実的な軌道計画を実現する。
論文 参考訳(メタデータ) (2025-09-02T04:32:24Z) - Grid-Agent: An LLM-Powered Multi-Agent System for Power Grid Control [4.3210078529580045]
本稿では、グリッド違反を検出し、修正する自律型AI駆動フレームワークであるGrid-Agentを紹介する。
Grid-Agentは、意味論的推論とモジュラーエージェントによる数値的精度を統合する。
IEEEおよびCIGREベンチマークネットワークの実験は、優れた緩和性能を示す。
論文 参考訳(メタデータ) (2025-08-07T01:10:28Z) - Controllable Motion Generation via Diffusion Modal Coupling [19.534234002173314]
マルチモーダルな事前分布を利用して拡散モデルの制御性を向上する新しいフレームワークを提案する。
Maze2D環境におけるデータセットとマルチタスク制御を用いた動作予測手法の評価を行った。
論文 参考訳(メタデータ) (2025-03-04T07:22:34Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。