論文の概要: Explainable AI for Radar Resource Management: Modified LIME in Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.20916v1
- Date: Thu, 26 Jun 2025 00:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.926123
- Title: Explainable AI for Radar Resource Management: Modified LIME in Deep Reinforcement Learning
- Title(参考訳): レーダー資源管理のための説明可能なAI: 深層強化学習における改善されたLIME
- Authors: Ziyang Lu, M. Cenk Gursoy, Chilukuri K. Mohan, Pramod K. Varshney,
- Abstract要約: 深層学習(DL)をサンプリングプロセスに統合する改良型LIME手法を提案する。
我々は、レーダー資源管理のための深層強化学習にDL-LIMEを採用している。
- 参考スコア(独自算出の注目度): 14.285899538624246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning has been extensively studied in decision-making processes and has demonstrated superior performance over conventional approaches in various fields, including radar resource management (RRM). However, a notable limitation of neural networks is their ``black box" nature and recent research work has increasingly focused on explainable AI (XAI) techniques to describe the rationale behind neural network decisions. One promising XAI method is local interpretable model-agnostic explanations (LIME). However, the sampling process in LIME ignores the correlations between features. In this paper, we propose a modified LIME approach that integrates deep learning (DL) into the sampling process, which we refer to as DL-LIME. We employ DL-LIME within deep reinforcement learning for radar resource management. Numerical results show that DL-LIME outperforms conventional LIME in terms of both fidelity and task performance, demonstrating superior performance with both metrics. DL-LIME also provides insights on which factors are more important in decision making for radar resource management.
- Abstract(参考訳): 深い強化学習は意思決定プロセスにおいて広く研究されており、レーダー資源管理(RRM)を含む様々な分野における従来の手法よりも優れた性能を示している。
しかしながら、ニューラルネットワークの顕著な制限は、その‘ブラックボックス’の性質であり、最近の研究は、ニューラルネットワーク決定の背後にある理論的根拠を説明するための説明可能なAI(XAI)技術に重点を置いている。
1つの有望なXAI法は、局所的解釈可能なモデルに依存しない説明(LIME)である。
しかし、LIMEにおけるサンプリングプロセスは特徴間の相関を無視している。
本稿では,深層学習(DL)をサンプリングプロセスに統合する改良型LIME手法を提案し,これをDL-LIMEと呼ぶ。
我々は、レーダー資源管理のための深層強化学習にDL-LIMEを採用している。
その結果,DL-LIMEは従来のLIMEよりも忠実度およびタスク性能が優れており,両指標とも優れた性能を示した。
DL-LIMEはまた、レーダリソース管理のための意思決定において、どの要因がより重要であるかについての洞察を提供する。
関連論文リスト
- RL-PLUS: Countering Capability Boundary Collapse of LLMs in Reinforcement Learning with Hybrid-policy Optimization [86.30192066451256]
大規模言語モデル(LLM)のための新しいハイブリッド政治最適化手法RL-PLUSを提案する。
RL-PLUSは、外部データと内部エクスプロイトを相乗化して、より強力な推論能力を達成し、ベースモデルのバウンダリを超える。
提案手法の優位性と一般化性を示すため,理論解析と広範な実験を行った。
論文 参考訳(メタデータ) (2025-07-31T23:55:29Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Towards Transparent AI: A Survey on Explainable Large Language Models [2.443957114877221]
大規模言語モデル(LLM)は人工知能(AI)の進歩において重要な役割を担っている
LLMは意思決定プロセスを説明するのに苦労し、それらを"ブラックボックス"にし、説明可能性に重大な課題を提示します。
これらの制限を克服するために、研究者は様々な説明可能な人工知能(XAI)法を開発した。
論文 参考訳(メタデータ) (2025-06-26T23:25:22Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Exploring Knowledge Boundaries in Large Language Models for Retrieval Judgment [56.87031484108484]
大規模言語モデル(LLM)は、その実践的応用でますます認識されている。
Retrieval-Augmented Generation (RAG)はこの課題に取り組み、LLMに大きな影響を与えている。
中立あるいは有害な結果をもたらす検索要求を最小化することにより、時間と計算コストの両方を効果的に削減できる。
論文 参考訳(メタデータ) (2024-11-09T15:12:28Z) - Diffusion-Based Offline RL for Improved Decision-Making in Augmented ARC Task [10.046325073900297]
SOLAR(Abstraction and Reasoning)のための拡張オフラインRLデータセットを提案する。
SOLARは、十分な経験データを提供することで、オフラインのRLメソッドの適用を可能にする。
本実験は, 簡単なARCタスクにおけるオフラインRL手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-15T06:48:27Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - "Yes, My LoRD." Guiding Language Model Extraction with Locality Reinforced Distillation [23.79690793366511]
大規模言語モデル(LLM)に特化して設計された新しいモデル抽出アルゴリズムであるLoRD(Locality Reinforced Distillation)を提案する。
LoRDは、被害者モデルの応答を信号として利用し、ローカルモデルの好みの作り方をガイドする、新たに定義されたポリシー段階的なトレーニングタスクを採用している。
論文 参考訳(メタデータ) (2024-09-04T13:54:38Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - An Extension of LIME with Improvement of Interpretability and Fidelity [4.874445626403491]
特徴サンプリングと近似(LEDSNA)を用いた局所的説明
本稿では,特徴サンプリングと近似(LEDSNA)を用いた局所記述(Local Explanation)と呼ばれる,高解釈性と高忠実な局所説明手法を提案する。
論文 参考訳(メタデータ) (2020-04-26T02:54:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。