論文の概要: A model-agnostic approach for generating Saliency Maps to explain
inferred decisions of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2209.08906v1
- Date: Mon, 19 Sep 2022 10:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:51:53.944263
- Title: A model-agnostic approach for generating Saliency Maps to explain
inferred decisions of Deep Learning Models
- Title(参考訳): 深層学習モデルの推定決定を説明するための塩分マップ生成のためのモデル非依存手法
- Authors: Savvas Karatsiolis, Andreas Kamilaris
- Abstract要約: 本稿では,モデル出力にのみアクセス可能な有能マップを生成するためのモデルに依存しない手法を提案する。
我々は微分進化法を用いて、モデルの意思決定プロセスにおいて、どの画像ピクセルが最も影響があるかを特定する。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread use of black-box AI models has raised the need for algorithms
and methods that explain the decisions made by these models. In recent years,
the AI research community is increasingly interested in models' explainability
since black-box models take over more and more complicated and challenging
tasks. Explainability becomes critical considering the dominance of deep
learning techniques for a wide range of applications, including but not limited
to computer vision. In the direction of understanding the inference process of
deep learning models, many methods that provide human comprehensible evidence
for the decisions of AI models have been developed, with the vast majority
relying their operation on having access to the internal architecture and
parameters of these models (e.g., the weights of neural networks). We propose a
model-agnostic method for generating saliency maps that has access only to the
output of the model and does not require additional information such as
gradients. We use Differential Evolution (DE) to identify which image pixels
are the most influential in a model's decision-making process and produce class
activation maps (CAMs) whose quality is comparable to the quality of CAMs
created with model-specific algorithms. DE-CAM achieves good performance
without requiring access to the internal details of the model's architecture at
the cost of more computational complexity.
- Abstract(参考訳): ブラックボックスAIモデルの普及により、これらのモデルによる決定を説明するアルゴリズムや方法の必要性が高まっている。
近年、ブラックボックスモデルがより複雑で困難なタスクを引き継いでいるため、AI研究コミュニティはモデルの説明可能性にますます関心を寄せている。
コンピュータビジョンを含む幅広いアプリケーションにおいて、ディープラーニング技術の優位性を考えると、説明可能性は非常に重要になる。
ディープラーニングモデルの推論プロセスを理解するために、AIモデルの決定に関する人間の理解可能な証拠を提供する多くの方法が開発され、大多数はこれらのモデルの内部アーキテクチャやパラメータ(例えばニューラルネットワークの重み)へのアクセスに彼らの操作に依存している。
本稿では,モデルの出力のみにアクセスでき,勾配などの追加情報を必要としないサリエンシーマップを生成するためのモデル非依存な手法を提案する。
我々は差分進化(DE)を用いて、モデルの意思決定プロセスに最も影響を及ぼす画像画素を特定し、モデル固有のアルゴリズムで生成されたCAMの品質に匹敵する品質のクラスアクティベーションマップ(CAM)を作成する。
DE-CAMは、より複雑な計算コストで、モデルアーキテクチャの内部の詳細にアクセスすることなく、優れたパフォーマンスを達成する。
関連論文リスト
- Learning-based Models for Vulnerability Detection: An Extensive Study [3.1317409221921144]
我々は、最先端の学習ベースアプローチの2つのタイプを広範かつ包括的に調査する。
本稿では,シーケンスベースモデルの優先度と,グラフベースモデルの限定能力について実験的に検証する。
論文 参考訳(メタデータ) (2024-08-14T13:01:30Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - Quality Diversity Evolutionary Learning of Decision Trees [4.447467536572625]
MAP-Elitesは, モデル複雑性と振る舞いの多様性の両方を捉えた特徴空間上で, ハイブリッドモデルを多様化することができることを示す。
本手法をOpenAI Gymライブラリの2つのよく知られた制御問題に適用し,MAP-Elitesが提案する「照明」パターンについて議論する。
論文 参考訳(メタデータ) (2022-08-17T13:57:32Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Model Complexity of Deep Learning: A Survey [79.20117679251766]
深層学習におけるモデル複雑性に関する最新の研究を体系的に概観します。
本稿では,これら2つのカテゴリに関する既存研究について,モデルフレームワーク,モデルサイズ,最適化プロセス,データ複雑性の4つの重要な要因について概説する。
論文 参考訳(メタデータ) (2021-03-08T22:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。