論文の概要: LLM-Based Agentic Negotiation for 6G: Addressing Uncertainty Neglect and Tail-Event Risk
- arxiv url: http://arxiv.org/abs/2511.19175v1
- Date: Mon, 24 Nov 2025 14:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.25937
- Title: LLM-Based Agentic Negotiation for 6G: Addressing Uncertainty Neglect and Tail-Event Risk
- Title(参考訳): LLMによる6Gのエージェントネゴシエーション--不確実性無視とタイルイベントリスクに対処して
- Authors: Hatim Chergui, Farhad Rezazadeh, Mehdi Bennis, Merouane Debbah,
- Abstract要約: 本稿では,6Gネットワークにおけるエージェント交渉のためのリスク対応フレームワークを提案する。
エージェントの目的を平均の推論から尾の推論へとシフトさせ、最悪の場合の結果に対して統計的に座屈したバッファを構築する。
この信頼性は、わずかに省エネする合理的で定量的なコストを17%に抑え、偏りのあるアプローチの誤った経済を露呈することを示している。
- 参考スコア(独自算出の注目度): 25.00990717105066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A critical barrier to the trustworthiness of sixth-generation (6G) agentic autonomous networks is the uncertainty neglect bias; a cognitive tendency for large language model (LLM)-powered agents to make high-stakes decisions based on simple averages while ignoring the tail risk of extreme events. This paper proposes an unbiased, risk-aware framework for agentic negotiation, designed to ensure robust resource allocation in 6G network slicing. Specifically, agents leverage Digital Twins (DTs) to predict full latency distributions, which are then evaluated using a formal framework from extreme value theory, namely, Conditional Value-at-Risk (CVaR). This approach fundamentally shifts the agent's objective from reasoning over the mean to reasoning over the tail, thereby building a statistically-grounded buffer against worst-case outcomes. Furthermore, our framework ensures full uncertainty awareness by requiring agents to quantify epistemic uncertainty -- confidence in their own DTs predictions -- and propagate this meta-verification to make robust decisions, preventing them from acting on unreliable data. We validate this framework in a 6G inter-slice negotiation use-case between an eMBB and a URLLC agent. The results demonstrate the profound failure of the biased, mean-based baseline, which consistently fails its SLAs with a 25\% rate. Our unbiased, CVaR-aware agent successfully mitigates this bias, eliminating SLA violations and reducing the URLLC and eMBB p99.999 latencies by around 11\%. We show this reliability comes at the rational and quantifiable cost of slightly reduced energy savings to 17\%, exposing the false economy of the biased approach. This work provides a concrete methodology for building the trustworthy autonomous systems required for 6G.
- Abstract(参考訳): 第6世代(6G)のエージェント自律ネットワークの信頼性に対する重要な障壁は、不確実な無視バイアスである。
本稿では,6Gネットワークスライシングにおけるロバストな資源配分を確保するために,エージェント交渉のための非バイアスでリスク対応のフレームワークを提案する。
具体的には、エージェントはDigital Twins(DT)を使用して完全なレイテンシ分布を予測し、極値理論から正式なフレームワーク、すなわちConditional Value-at-Risk(CVaR)を用いて評価する。
このアプローチは、エージェントの目的を平均上の推論からテール上の推論へと根本的にシフトさせ、最悪の場合の結果に対して統計的に座屈したバッファを構築する。
さらに、我々のフレームワークは、エージェントがてんかんの不確実性 -- 自身のDTs予測への信頼 -- を定量化し、このメタ検証を伝播して堅牢な決定をし、信頼性の低いデータに作用することを防ぐことによって、完全な不確実性認識を確実にします。
我々は,この枠組みを,eMBBとURLLCエージェント間のスライス間交渉のユースケース6Gで検証する。
その結果、バイアスのある平均ベースラインの重大な障害が示され、SLAは25.5%の速度で一貫して失敗する。
我々のCVaR対応エージェントは、このバイアスを軽減し、SLA違反を排除し、URLLCとeMBB p99.999のレイテンシを約11\%削減した。
この信頼性は、わずかに削減された省エネの合理的かつ定量なコストを17倍にし、偏りのあるアプローチの誤った経済を露呈することを示している。
この作業は、6Gに必要な信頼性の高い自律システムを構築するための具体的な方法論を提供する。
関連論文リスト
- Confidence-Based Response Abstinence: Improving LLM Trustworthiness via Activation-Based Uncertainty Estimation [7.3923284353934875]
本稿では,大規模言語モデル(LLM)出力の正しさと密接に一致したRAGシステムにおける信頼度推定手法を提案する。
提案手法は、生のフィードフォワードネットワーク(FFN)を自己回帰信号として活用することにより、事前の不確実性定量化手法を拡張した。
我々の結果は、アクティベーションに基づく信頼度モデリングが、信頼性の高いRAGデプロイメントへのスケーラブルでアーキテクチャを意識したパスを提供することを示した。
論文 参考訳(メタデータ) (2025-10-15T16:55:56Z) - Toward an Unbiased Collective Memory for Efficient LLM-Based Agentic 6G Cross-Domain Management [1.9188126920097714]
本稿では,6G RAN-Edgeネットワークにおけるアクティブなクロスドメインリソースオーケストレーションのための新しいフレームワークを提案する。
このシステムは、繰り返し交渉を行う専門的なRAN(エネルギー効率)とエッジ(レイテンシ保証)エージェントから構成される。
エージェントはデジタルツインと対話して提案をテストし、長期的な集合記憶を活用する。
論文 参考訳(メタデータ) (2025-09-30T12:57:11Z) - Certainty-Guided Reasoning in Large Language Models: A Dynamic Thinking Budget Approach [0.15749416770494704]
CGR(Certainty-Guided Reasoning)はトークン使用量を削減するとともに,ベースライン精度を向上させる。
CGRは、確実なしきい値と効率の間の調整可能なトレードオフによって、数百万のトークンを集約的に排除することができる。
信頼性を推論プロセスに統合することにより、CGRは大きな推論言語モデルをより適応的で信頼性があり、リソース効率が良いものにする。
論文 参考訳(メタデータ) (2025-09-09T14:57:15Z) - A Bayesian Incentive Mechanism for Poison-Resilient Federated Learning [0.0]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
本稿では, 有害行為を経済的に不合理にする軽度ベイズインセンティブ機構を, 積極的, 経済的防衛に導入する。
論文 参考訳(メタデータ) (2025-07-16T17:27:25Z) - Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Free Lunch for Generating Effective Outlier Supervision [46.37464572099351]
本稿では, ほぼ現実的な外乱監視を実現するための超効率的な手法を提案する。
提案したtextttBayesAug は,従来の方式に比べて偽陽性率を 12.50% 以上削減する。
論文 参考訳(メタデータ) (2023-01-17T01:46:45Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。