論文の概要: Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs
- arxiv url: http://arxiv.org/abs/2202.04943v1
- Date: Thu, 10 Feb 2022 10:33:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 14:39:59.193376
- Title: Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs
- Title(参考訳): 視覚入力を伴うRLタスクのための進化的最適化モジュールを用いた解釈可能なパイプライン
- Authors: Leonardo Lucio Custode and Giovanni Iacca
- Abstract要約: 進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
- 参考スコア(独自算出の注目度): 5.254093731341154
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The importance of explainability in AI has become a pressing concern, for
which several explainable AI (XAI) approaches have been recently proposed.
However, most of the available XAI techniques are post-hoc methods, which
however may be only partially reliable, as they do not reflect exactly the
state of the original models. Thus, a more direct way for achieving XAI is
through interpretable (also called glass-box) models. These models have been
shown to obtain comparable (and, in some cases, better) performance with
respect to black-boxes models in various tasks such as classification and
reinforcement learning. However, they struggle when working with raw data,
especially when the input dimensionality increases and the raw inputs alone do
not give valuable insights on the decision-making process. Here, we propose to
use end-to-end pipelines composed of multiple interpretable models co-optimized
by means of evolutionary algorithms, that allows us to decompose the
decision-making process into two parts: computing high-level features from raw
data, and reasoning on the extracted high-level features. We test our approach
in reinforcement learning environments from the Atari benchmark, where we
obtain comparable results (with respect to black-box approaches) in settings
without stochastic frame-skipping, while performance degrades in frame-skipping
settings.
- Abstract(参考訳): AIにおける説明可能性の重要性は、いくつかの説明可能なAI(XAI)アプローチが最近提案されているため、大きな関心事となっている。
しかしながら、利用可能なxai技術のほとんどはポストホックな手法であるが、元のモデルの状態を正確に反映していないため、部分的にしか信頼できない。
したがって、XAIを達成するためのより直接的な方法は、解釈可能な(ガラス箱とも呼ばれる)モデルである。
これらのモデルは、分類や強化学習といった様々なタスクにおけるブラックボックスモデルに対して、同等な(より良い)性能が得られることが示されている。
しかし、特に入力次元が増加し、生入力だけでは意思決定プロセスに関する貴重な洞察を与えられない場合、生データを扱うときに苦労する。
本稿では、進化的アルゴリズムによって最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを用いて、意思決定プロセスを生データから高レベルな特徴を計算し、抽出した高レベルな特徴を推論する2つの部分に分解できるようにする。
我々は,Atariベンチマークの強化学習環境において,確率的フレームスキッピングを伴わない設定で比較結果(ブラックボックスアプローチ)を得るとともに,フレームスキッピング設定では性能が低下することを示す。
関連論文リスト
- Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Sampling - Variational Auto Encoder - Ensemble: In the Quest of
Explainable Artificial Intelligence [0.0]
本稿では,新しい枠組みに基づく実証的評価を提示することによって,XAIに関する談話に寄与する。
VAEとアンサンブルスタックとSHapley Additive ExPlanationsを組み合わせたハイブリッドアーキテクチャである。
この発見は、アンサンブルスタック、VAE、SHAPを組み合わせることで、モデルのパフォーマンスが向上するだけでなく、簡単に説明可能なフレームワークを提供できることを示している。
論文 参考訳(メタデータ) (2023-09-25T02:46:19Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Shapelet-Based Counterfactual Explanations for Multivariate Time Series [0.9990687944474738]
我々は,モデル非依存多変量時系列(MTS)の対実的説明アルゴリズムを開発した。
我々は、実生活の太陽フレア予測データセット上で、我々のアプローチを検証し、我々のアプローチが高品質な反事実を生み出すことを証明した。
視覚的に解釈可能であることに加えて、我々の説明は近接性、疎性、そして妥当性の点で優れている。
論文 参考訳(メタデータ) (2022-08-22T17:33:31Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing [0.0]
ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
論文 参考訳(メタデータ) (2021-04-03T11:13:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。