論文の概要: Explaining Imitation Learning through Frames
- arxiv url: http://arxiv.org/abs/2301.01088v1
- Date: Tue, 3 Jan 2023 13:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:12:26.639851
- Title: Explaining Imitation Learning through Frames
- Title(参考訳): フレームによる模倣学習の解説
- Authors: Boyuan Zheng, Jianlong Zhou, Chunjie Liu, Yiqiao Li and Fang Chen
- Abstract要約: 本稿では,R2RISEと呼ばれるImitation Learningモデルのためのモデルに依存しない説明フレームワークを提案する。
R2RISEは、デモのフレームに関する全体的なポリシーパフォーマンスを説明することを目的としている。
また、フレームの重要度等式、重要度マップの有効性、異なるILモデルからの重要度マップ間の接続に関する3つの主要な質問について、実験を行った。
- 参考スコア(独自算出の注目度): 5.164020888140332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the prevalent methods to achieve automation systems, Imitation
Learning (IL) presents a promising performance in a wide range of domains.
However, despite the considerable improvement in policy performance, the
corresponding research on the explainability of IL models is still limited.
Inspired by the recent approaches in explainable artificial intelligence
methods, we proposed a model-agnostic explaining framework for IL models called
R2RISE. R2RISE aims to explain the overall policy performance with respect to
the frames in demonstrations. It iteratively retrains the black-box IL model
from the randomized masked demonstrations and uses the conventional evaluation
outcome environment returns as the coefficient to build an importance map. We
also conducted experiments to investigate three major questions concerning
frames' importance equality, the effectiveness of the importance map, and
connections between importance maps from different IL models. The result shows
that R2RISE successfully distinguishes important frames from the
demonstrations.
- Abstract(参考訳): 自動化システムを実現するための一般的な方法の1つとして、Imitation Learning (IL)は幅広い領域で有望なパフォーマンスを示す。
しかし、政策性能の大幅な改善にもかかわらず、ILモデルの説明可能性に関する対応する研究はまだ限られている。
近年の人工知能手法のアプローチに触発されて,ilモデルのモデル非依存な説明フレームワークであるr2riseを提案した。
R2RISEは、デモのフレームに関する全体的なポリシーパフォーマンスを説明することを目的としている。
ランダムにマスクされたデモからブラックボックスILモデルを反復的に再トレーニングし、従来の評価結果環境を係数として返却して重要マップを構築する。
また,フレームの重要性等性,重要度マップの有効性,異なるilモデルからの重要度マップ間の接続性に関する3つの主要な質問について検討した。
その結果、R2RISEは重要なフレームとデモを区別することに成功した。
関連論文リスト
- Sparks of Explainability: Recent Advancements in Explaining Large Vision Models [6.1642231492615345]
この論文は、ディープニューラルネットワークによって利用される特徴を分析し、モデル化することにより、コンピュータビジョンにおける説明可能性を改善するための高度なアプローチを探求する。
アルゴリズム的安定性に基づく計量とソボル指標を用いたアプローチを導入することにより、帰属法、特にサリエンシマップを評価する。
モデルと人間の推論を一致させ、概念的説明可能性アプローチを採用するという2つの仮説が検討されている。
論文 参考訳(メタデータ) (2025-02-03T04:49:32Z) - Choose Your Explanation: A Comparison of SHAP and GradCAM in Human Activity Recognition [0.13194391758295113]
本研究は,Shapley Additive Explanations (SHAP) と Gradient-weighted Class Activation Mapping (GradCAM) を比較した。
本研究では,これらの手法を定量的かつ定量的に比較し,摂動実験による特徴重要度ランキング,解釈可能性,モデル感度に着目した。
我々の研究は、SHAPとGradCAMが相互に補完し、より解釈可能で実行可能なモデル説明を提供する方法を示している。
論文 参考訳(メタデータ) (2024-12-20T15:53:25Z) - A Survey on All-in-One Image Restoration: Taxonomy, Evaluation and Future Trends [67.43992456058541]
画像復元(IR)とは、ノイズ、ぼかし、気象効果などの劣化を除去しながら、画像の視覚的品質を改善する過程である。
従来のIR手法は、一般的に特定の種類の劣化をターゲットとしており、複雑な歪みを伴う現実のシナリオにおいて、その効果を制限している。
オールインワン画像復元(AiOIR)パラダイムが登場し、複数の劣化タイプに順応的に対処する統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-10-19T11:11:09Z) - SMLE: Safe Machine Learning via Embedded Overapproximation [4.129133569151574]
本研究は,デザイナ・ちょうせん特性を満たすことが保証される識別可能なMLモデルを訓練する作業について考察する。
現代のニューラルモデルにおけるコンプライアンスの厳格な検証と実施という計算複雑性のため、これは非常に難しい。
1)保守的なセマンティクスによる効率的な検証を可能にする汎用的,シンプルなアーキテクチャ。
回帰における線形不等式によって定義される特性と、多重ラベル分類における相互排他的クラスに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-09-30T17:19:57Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Enhancing Travel Choice Modeling with Large Language Models: A Prompt-Learning Approach [6.913791588789051]
本稿では,予測精度を大幅に向上させ,個々の予測に対して明確な説明を提供する,プロンプト学習に基づく大規模言語モデル(LLM)フレームワークを提案する。
スイスで収集されたLondon Passenger Mode Choice(LPMC)とOptima-Mode(Optima-Mode)の2つの選択肢データセットを用いて,フレームワークの有効性を検証した。
その結果,LLMは人々の選択を予測する上で,最先端のディープラーニング手法や個別選択モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-06-19T13:46:08Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Learning to Agree on Vision Attention for Visual Commonsense Reasoning [50.904275811951614]
VCRモデルは、画像に関する質問に答えることを目的としており、続いて、前の回答プロセスの合理性予測が続く。
既存の手法は2つのプロセス間の重要な関係を無視し、最適化されたモデルの性能をもたらす。
本稿では,これら2つのプロセスを統一的な枠組みで効果的に処理する新しい視覚的アライメント手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T07:02:29Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。