論文の概要: Flow AM: Generating Point Cloud Global Explanations by Latent Alignment
- arxiv url: http://arxiv.org/abs/2404.18760v1
- Date: Mon, 29 Apr 2024 14:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 13:18:30.925208
- Title: Flow AM: Generating Point Cloud Global Explanations by Latent Alignment
- Title(参考訳): Flow AM: 潜在アライメントによるポイントクラウドグローバル説明の生成
- Authors: Hanxiao Tan,
- Abstract要約: 生成モデルを組み込まずにグローバルな説明を生成するアクティベーションフローに基づくAM手法を提案する。
提案手法は, 生成モデルに基づいていない他のAM手法と比較して, 説明の受容性を劇的に向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although point cloud models have gained significant improvements in prediction accuracy over recent years, their trustworthiness is still not sufficiently investigated. In terms of global explainability, Activation Maximization (AM) techniques in the image domain are not directly transplantable due to the special structure of the point cloud models. Existing studies exploit generative models to yield global explanations that can be perceived by humans. However, the opacity of the generative models themselves and the introduction of additional priors call into question the plausibility and fidelity of the explanations. In this work, we demonstrate that when the classifier predicts different types of instances, the intermediate layer activations are differently activated, known as activation flows. Based on this property, we propose an activation flow-based AM method that generates global explanations that can be perceived without incorporating any generative model. Furthermore, we reveal that AM based on generative models fails the sanity checks and thus lack of fidelity. Extensive experiments show that our approach dramatically enhances the perceptibility of explanations compared to other AM methods that are not based on generative models. Our code is available at: https://github.com/Explain3D/FlowAM
- Abstract(参考訳): 近年,ポイントクラウドモデルでは予測精度が大幅に向上しているが,信頼性は十分に調査されていない。
グローバルな説明可能性の観点からは、画像領域におけるアクティベーション最大化(AM)技術は、ポイントクラウドモデルの特別な構造のために直接移植できない。
既存の研究は、生成モデルを利用して、人間が認識できる世界的説明を生み出している。
しかし、生成モデル自体の不透明さと追加の事前の導入は、説明の妥当性と忠実さに疑問を投げかける。
本研究では,分類器がインスタンスの種類を予測した場合,中間層アクティベーションはアクティベーションフローと呼ばれる,異なるアクティベーションが活性化されることを実証する。
この特性に基づいて,生成モデルを組み込まずに認識可能なグローバルな説明を生成するアクティベーションフローに基づくAM手法を提案する。
さらに, 生成モデルに基づくAMは正当性チェックに失敗し, 忠実性の欠如が判明した。
大規模な実験により,本手法は生成モデルに基づいていない他のAM法と比較して,説明の受容性を劇的に向上させることが示された。
私たちのコードは、https://github.com/Explain3D/FlowAMで利用可能です。
関連論文リスト
- Pretrained Reversible Generation as Unsupervised Visual Representation Learning [7.076111872035312]
本研究では,事前学習した連続流れモデルの生成過程を逆転させて教師なし表現を抽出するPRGを提案する。
PRGは教師なし生成モデルを効果的に再利用し、その高い能力を利用して下流タスクの堅牢で一般化可能な特徴抽出器として機能する。
論文 参考訳(メタデータ) (2024-11-29T08:24:49Z) - DAM: Diffusion Activation Maximization for 3D Global Explanations [0.0]
DDPMに基づくポイントクラウドグローバル説明可能性法(DAM)を提案する。
本手法は, 知覚性, 代表性, 多様性の点で, 既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-01-26T15:22:06Z) - Navigating the Structured What-If Spaces: Counterfactual Generation via
Structured Diffusion [20.20945739504847]
本稿では,構造データ中の反現実的説明を生成するために拡散を利用した最初のプラグアンドプレイフレームワークであるStructured Counterfactual diffuser(SCD)を紹介する。
実験の結果, 既存の最先端技術と比較して高い妥当性を示すだけでなく, 近接性や多様性も著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-12-21T07:05:21Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Learning Sparse Latent Representations for Generator Model [7.467412443287767]
そこで本研究では,ジェネレータモデルの潜在空間に空間空間を強制する教師なし学習手法を提案する。
我々のモデルは1つのトップダウンジェネレータネットワークから成り、潜在変数を観測データにマッピングする。
論文 参考訳(メタデータ) (2022-09-20T18:58:24Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Generative Flows with Invertible Attentions [135.23766216657745]
生成フローモデルに対する2種類の非可逆的注意機構を導入する。
フロー特徴写像の2分割毎に注意重みと入力表現を学習するために,分割に基づく注意機構を利用する。
提案手法は, トラクタブルジャコビアン行列を用いた非可逆アテンションモジュールをフローベースモデルの任意の位置にシームレスに統合する。
論文 参考訳(メタデータ) (2021-06-07T20:43:04Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。