論文の概要: Explaining Imitation Learning through Frames
- arxiv url: http://arxiv.org/abs/2301.01088v1
- Date: Tue, 3 Jan 2023 13:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 14:12:26.639851
- Title: Explaining Imitation Learning through Frames
- Title(参考訳): フレームによる模倣学習の解説
- Authors: Boyuan Zheng, Jianlong Zhou, Chunjie Liu, Yiqiao Li and Fang Chen
- Abstract要約: 本稿では,R2RISEと呼ばれるImitation Learningモデルのためのモデルに依存しない説明フレームワークを提案する。
R2RISEは、デモのフレームに関する全体的なポリシーパフォーマンスを説明することを目的としている。
また、フレームの重要度等式、重要度マップの有効性、異なるILモデルからの重要度マップ間の接続に関する3つの主要な質問について、実験を行った。
- 参考スコア(独自算出の注目度): 5.164020888140332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As one of the prevalent methods to achieve automation systems, Imitation
Learning (IL) presents a promising performance in a wide range of domains.
However, despite the considerable improvement in policy performance, the
corresponding research on the explainability of IL models is still limited.
Inspired by the recent approaches in explainable artificial intelligence
methods, we proposed a model-agnostic explaining framework for IL models called
R2RISE. R2RISE aims to explain the overall policy performance with respect to
the frames in demonstrations. It iteratively retrains the black-box IL model
from the randomized masked demonstrations and uses the conventional evaluation
outcome environment returns as the coefficient to build an importance map. We
also conducted experiments to investigate three major questions concerning
frames' importance equality, the effectiveness of the importance map, and
connections between importance maps from different IL models. The result shows
that R2RISE successfully distinguishes important frames from the
demonstrations.
- Abstract(参考訳): 自動化システムを実現するための一般的な方法の1つとして、Imitation Learning (IL)は幅広い領域で有望なパフォーマンスを示す。
しかし、政策性能の大幅な改善にもかかわらず、ILモデルの説明可能性に関する対応する研究はまだ限られている。
近年の人工知能手法のアプローチに触発されて,ilモデルのモデル非依存な説明フレームワークであるr2riseを提案した。
R2RISEは、デモのフレームに関する全体的なポリシーパフォーマンスを説明することを目的としている。
ランダムにマスクされたデモからブラックボックスILモデルを反復的に再トレーニングし、従来の評価結果環境を係数として返却して重要マップを構築する。
また,フレームの重要性等性,重要度マップの有効性,異なるilモデルからの重要度マップ間の接続性に関する3つの主要な質問について検討した。
その結果、R2RISEは重要なフレームとデモを区別することに成功した。
関連論文リスト
- Towards Faithful Explanations for Text Classification with Robustness
Improvement and Explanation Guided Training [30.626080706755822]
特徴属性法は、重要な入力トークンをモデル予測の説明として強調する。
近年の研究では、これらの手法による説明は、忠実で堅牢であるという課題に直面している。
本稿では,テキスト分類のためのロバスト性向上と説明指導による,より忠実な説明(REGEX)への指導手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T13:07:07Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Learning to Agree on Vision Attention for Visual Commonsense Reasoning [50.904275811951614]
VCRモデルは、画像に関する質問に答えることを目的としており、続いて、前の回答プロセスの合理性予測が続く。
既存の手法は2つのプロセス間の重要な関係を無視し、最適化されたモデルの性能をもたらす。
本稿では,これら2つのプロセスを統一的な枠組みで効果的に処理する新しい視覚的アライメント手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T07:02:29Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Entity-Conditioned Question Generation for Robust Attention Distribution
in Neural Information Retrieval [51.53892300802014]
教師付きニューラル情報検索モデルでは,通過トークンよりも疎注意パターンを学習することが困難であることを示す。
目的とする新しい合成データ生成手法を用いて、与えられた通路内の全てのエンティティに対して、より均一で堅牢な参加をニューラルIRに教える。
論文 参考訳(メタデータ) (2022-04-24T22:36:48Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Who Explains the Explanation? Quantitatively Assessing Feature
Attribution Methods [0.0]
本稿では,説明の忠実度を定量化するための新しい評価指標であるフォーカス(Focus)を提案する。
ランダム化実験によって測定値のロバスト性を示し、次にFocusを用いて3つの一般的な説明可能性手法を評価し比較する。
実験の結果,LRPとGradCAMは一貫性があり信頼性が高いことがわかった。
論文 参考訳(メタデータ) (2021-09-28T07:10:24Z) - SimCLS: A Simple Framework for Contrastive Learning of Abstractive
Summarization [14.16710715347118]
我々は抽象的な要約のための概念的に単純だが経験的に強力なフレームワークSimを提案する。
既存のトップスコアシステムに対して小さな変更を加えることで、Simは既存のトップスコアシステムの性能を大きなマージンで向上させることができる。
提案したモデルの結果はExplainaBoardプラットフォームにデプロイされ、研究者はより詳細な方法でシステムを理解することができる。
論文 参考訳(メタデータ) (2021-06-03T14:34:17Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。