論文の概要: Explainable AI for Radar Resource Management: Modified LIME in Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.20916v1
- Date: Thu, 26 Jun 2025 00:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.926123
- Title: Explainable AI for Radar Resource Management: Modified LIME in Deep Reinforcement Learning
- Title(参考訳): レーダー資源管理のための説明可能なAI: 深層強化学習における改善されたLIME
- Authors: Ziyang Lu, M. Cenk Gursoy, Chilukuri K. Mohan, Pramod K. Varshney,
- Abstract要約: 深層学習(DL)をサンプリングプロセスに統合する改良型LIME手法を提案する。
我々は、レーダー資源管理のための深層強化学習にDL-LIMEを採用している。
- 参考スコア(独自算出の注目度): 14.285899538624246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning has been extensively studied in decision-making processes and has demonstrated superior performance over conventional approaches in various fields, including radar resource management (RRM). However, a notable limitation of neural networks is their ``black box" nature and recent research work has increasingly focused on explainable AI (XAI) techniques to describe the rationale behind neural network decisions. One promising XAI method is local interpretable model-agnostic explanations (LIME). However, the sampling process in LIME ignores the correlations between features. In this paper, we propose a modified LIME approach that integrates deep learning (DL) into the sampling process, which we refer to as DL-LIME. We employ DL-LIME within deep reinforcement learning for radar resource management. Numerical results show that DL-LIME outperforms conventional LIME in terms of both fidelity and task performance, demonstrating superior performance with both metrics. DL-LIME also provides insights on which factors are more important in decision making for radar resource management.
- Abstract(参考訳): 深い強化学習は意思決定プロセスにおいて広く研究されており、レーダー資源管理(RRM)を含む様々な分野における従来の手法よりも優れた性能を示している。
しかしながら、ニューラルネットワークの顕著な制限は、その‘ブラックボックス’の性質であり、最近の研究は、ニューラルネットワーク決定の背後にある理論的根拠を説明するための説明可能なAI(XAI)技術に重点を置いている。
1つの有望なXAI法は、局所的解釈可能なモデルに依存しない説明(LIME)である。
しかし、LIMEにおけるサンプリングプロセスは特徴間の相関を無視している。
本稿では,深層学習(DL)をサンプリングプロセスに統合する改良型LIME手法を提案し,これをDL-LIMEと呼ぶ。
我々は、レーダー資源管理のための深層強化学習にDL-LIMEを採用している。
その結果,DL-LIMEは従来のLIMEよりも忠実度およびタスク性能が優れており,両指標とも優れた性能を示した。
DL-LIMEはまた、レーダリソース管理のための意思決定において、どの要因がより重要であるかについての洞察を提供する。
関連論文リスト
- R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Exploring Knowledge Boundaries in Large Language Models for Retrieval Judgment [56.87031484108484]
大規模言語モデル(LLM)は、その実践的応用でますます認識されている。
Retrieval-Augmented Generation (RAG)はこの課題に取り組み、LLMに大きな影響を与えている。
中立あるいは有害な結果をもたらす検索要求を最小化することにより、時間と計算コストの両方を効果的に削減できる。
論文 参考訳(メタデータ) (2024-11-09T15:12:28Z) - Diffusion-Based Offline RL for Improved Decision-Making in Augmented ARC Task [10.046325073900297]
SOLAR(Abstraction and Reasoning)のための拡張オフラインRLデータセットを提案する。
SOLARは、十分な経験データを提供することで、オフラインのRLメソッドの適用を可能にする。
本実験は, 簡単なARCタスクにおけるオフラインRL手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-15T06:48:27Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - "Yes, My LoRD." Guiding Language Model Extraction with Locality Reinforced Distillation [23.79690793366511]
大規模言語モデル(LLM)に特化して設計された新しいモデル抽出アルゴリズムであるLoRD(Locality Reinforced Distillation)を提案する。
LoRDは、被害者モデルの応答を信号として利用し、ローカルモデルの好みの作り方をガイドする、新たに定義されたポリシー段階的なトレーニングタスクを採用している。
論文 参考訳(メタデータ) (2024-09-04T13:54:38Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。