論文の概要: Towards Bridging the FL Performance-Explainability Trade-Off: A
Trustworthy 6G RAN Slicing Use-Case
- arxiv url: http://arxiv.org/abs/2307.12903v1
- Date: Mon, 24 Jul 2023 15:51:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 13:43:17.210603
- Title: Towards Bridging the FL Performance-Explainability Trade-Off: A
Trustworthy 6G RAN Slicing Use-Case
- Title(参考訳): FLパフォーマンス説明可能性貿易の橋渡しに向けて:信頼できる6G RANスライシングユースケース
- Authors: Swastika Roy, Hatim Chergui, Christos Verikoukis
- Abstract要約: 6Gネットワークスライシングには、効率的なリソース割り当てと説明可能な意思決定のための高性能なAIモデルが必要である。
本稿では,新しい説明誘導型インホック・フェデレーション・ラーニング(FL)手法を提案する。
我々は、いわゆる帰属に基づく信頼度測定によって、説明の忠実さを定量的に検証する。
- 参考スコア(独自算出の注目度): 0.5156484100374059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of sixth-generation (6G) networks, where diverse network
slices coexist, the adoption of AI-driven zero-touch management and
orchestration (MANO) becomes crucial. However, ensuring the trustworthiness of
AI black-boxes in real deployments is challenging. Explainable AI (XAI) tools
can play a vital role in establishing transparency among the stakeholders in
the slicing ecosystem. But there is a trade-off between AI performance and
explainability, posing a dilemma for trustworthy 6G network slicing because the
stakeholders require both highly performing AI models for efficient resource
allocation and explainable decision-making to ensure fairness, accountability,
and compliance. To balance this trade off and inspired by the closed loop
automation and XAI methodologies, this paper presents a novel
explanation-guided in-hoc federated learning (FL) approach where a constrained
resource allocation model and an explainer exchange -- in a closed loop (CL)
fashion -- soft attributions of the features as well as inference predictions
to achieve a transparent 6G network slicing resource management in a RAN-Edge
setup under non-independent identically distributed (non-IID) datasets. In
particular, we quantitatively validate the faithfulness of the explanations via
the so-called attribution-based confidence metric that is included as a
constraint to guide the overall training process in the run-time FL
optimization task. In this respect, Integrated-Gradient (IG) as well as Input
$\times$ Gradient and SHAP are used to generate the attributions for our
proposed in-hoc scheme, wherefore simulation results under different methods
confirm its success in tackling the performance-explainability trade-off and
its superiority over the unconstrained Integrated-Gradient post-hoc FL
baseline.
- Abstract(参考訳): 多様なネットワークスライスが共存する第6世代(6g)ネットワークでは、ai駆動のゼロタッチ管理とオーケストレーション(mano)の採用が重要になる。
しかし、実際のデプロイメントにおけるAIブラックボックスの信頼性を保証することは難しい。
説明可能なAI(XAI)ツールは、スライシングエコシステムにおけるステークホルダ間の透明性を確立する上で重要な役割を果たす。
しかし、aiのパフォーマンスと説明可能性の間にはトレードオフがあり、公平性、説明責任性、コンプライアンスを確保するために、ステークホルダーは効率的なリソース割り当てと説明可能な意思決定のために高いパフォーマンスのaiモデルの両方を必要とするため、信頼できる6gネットワークスライシングのジレンマとなる。
To balance this trade off and inspired by the closed loop automation and XAI methodologies, this paper presents a novel explanation-guided in-hoc federated learning (FL) approach where a constrained resource allocation model and an explainer exchange -- in a closed loop (CL) fashion -- soft attributions of the features as well as inference predictions to achieve a transparent 6G network slicing resource management in a RAN-Edge setup under non-independent identically distributed (non-IID) datasets.
特に,実行時FL最適化タスクにおける全体トレーニングプロセスの指針となる制約として含まれる,いわゆる属性に基づく信頼度測定によって,説明の忠実度を定量的に検証する。
この点において、Integrated-Gradient (IG) とInput $\times$ Gradient と SHAP は、提案したインホックスキームの属性を生成するために使用され、これまでは異なる手法によるシミュレーション結果により、非制約のIntegrated-Gradient post-hoc FLベースラインに対する性能説明可能性トレードオフと優越性に対処することに成功した。
関連論文リスト
- Explainable AI-aided Feature Selection and Model Reduction for DRL-based V2X Resource Allocation [18.49800990388549]
人工知能(AI)は,第6世代(6G)ネットワークにおいて,無線リソース管理(RRM)を大幅に強化することが期待されている。
複雑なディープラーニング(DL)モデルにおける説明可能性の欠如は、実践的な実装に課題をもたらす。
本稿では,特徴選択とモデル複雑性低減のための新しいAI(XAI)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-23T10:55:38Z) - Heterogeneity-Aware Resource Allocation and Topology Design for Hierarchical Federated Edge Learning [9.900317349372383]
Federated Learning (FL)は、モバイルデバイス上で機械学習モデルをトレーニングするためのプライバシー保護フレームワークを提供する。
従来のFLアルゴリズム、例えばFedAvgはこれらのデバイスに重い通信負荷を課す。
エッジデバイスをエッジサーバに接続し,エッジサーバをピアツーピア(P2P)エッジバックホールを介して相互接続する2層HFELシステムを提案する。
我々の目標は、戦略的資源配分とトポロジ設計により、HFELシステムの訓練効率を向上させることである。
論文 参考訳(メタデータ) (2024-09-29T01:48:04Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - A Bayesian Framework of Deep Reinforcement Learning for Joint O-RAN/MEC
Orchestration [12.914011030970814]
マルチアクセスエッジコンピューティング(MEC)は、コモディティプラットフォーム上でOpen Radio Access Network(O-RAN)と一緒に実装することで、低コストなデプロイメントを実現する。
本稿では,ベイジアンディープ強化学習(RL)を用いたO-RAN/MEC協調オーケストレーションを提案する。
論文 参考訳(メタデータ) (2023-12-26T18:04:49Z) - Explanation-Guided Fair Federated Learning for Transparent 6G RAN
Slicing [0.5156484100374059]
我々は,信頼に値する予測を保証するために,説明誘導型連合学習(EGFL)方式を設計する。
具体的には,提案した概念を実証するために,スライス当たりのRAN降車確率を推定する。
また、未制限のEGFLに対して比較的25%以上のリコールスコアも改善した。
論文 参考訳(メタデータ) (2023-07-18T15:50:47Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - TEFL: Turbo Explainable Federated Learning for 6G Trustworthy Zero-Touch
Network Slicing [0.4588028371034407]
第6世代(6G)ネットワークは、多数の共存および異種スライスをサポートすることを期待している。
実際のデプロイメントにおけるAIブラックボックスの信頼性は、説明可能なAI(XAI)ツールによって達成できる。
本稿では,ターボの原理にヒントを得て,新しい反復的説明可能なフェデレーションラーニング(FL)手法を提案する。
論文 参考訳(メタデータ) (2022-10-18T20:26:56Z) - Balancing Discriminability and Transferability for Source-Free Domain
Adaptation [55.143687986324935]
従来のドメイン適応(DA)技術は、ドメイン不変表現を学習することでドメイン転送性を改善することを目的としている。
ラベル付けされたソースとラベル付けされていないターゲットへの同時アクセス要件は、ソースフリーなDA設定に適さない。
そこで本研究では,原文と翻訳サンプルの混在が識別可能性と伝達可能性のトレードオフを促進することを示す新しい知見を導出する。
論文 参考訳(メタデータ) (2022-06-16T09:06:22Z) - Implicit Distributional Reinforcement Learning [61.166030238490634]
2つのディープジェネレータネットワーク(DGN)上に構築された暗黙の分布型アクター批判(IDAC)
半単純アクター (SIA) は、フレキシブルなポリシー分布を利用する。
我々は,代表的OpenAI Gym環境において,IDACが最先端のアルゴリズムより優れていることを観察する。
論文 参考訳(メタデータ) (2020-07-13T02:52:18Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。