論文の概要: This Looks Like That... Does it? Shortcomings of Latent Space Prototype
Explainability in Deep Networks
- arxiv url: http://arxiv.org/abs/2105.02968v1
- Date: Wed, 5 May 2021 12:28:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 01:22:39.314234
- Title: This Looks Like That... Does it? Shortcomings of Latent Space Prototype
Explainability in Deep Networks
- Title(参考訳): こんなふうに...
そうですか?
深部ネットワークにおける潜時空間プロトタイプ説明可能性の欠点
- Authors: Adrian Hoffmann, Claudio Fanconi, Rahul Rade, Jonas Kohler
- Abstract要約: 我々は、潜在空間における類似性と入力空間における類似性の間に意味的なギャップがあることを論じる。
具体的には、このネットワークの解釈可能性メカニズムは、意図的に作られた、あるいはJPEG圧縮アーティファクトによっても導かれることがわかっています。
プロトタイプベースのモデルを実際にデプロイする場合、実践者はこのような欠点を念頭に置いておくべきです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks that yield human interpretable decisions by
architectural design have lately become an increasingly popular alternative to
post hoc interpretation of traditional black-box models. Among these networks,
the arguably most widespread approach is so-called prototype learning, where
similarities to learned latent prototypes serve as the basis of classifying an
unseen data point. In this work, we point to an important shortcoming of such
approaches. Namely, there is a semantic gap between similarity in latent space
and similarity in input space, which can corrupt interpretability. We design
two experiments that exemplify this issue on the so-called ProtoPNet.
Specifically, we find that this network's interpretability mechanism can be led
astray by intentionally crafted or even JPEG compression artefacts, which can
produce incomprehensible decisions. We argue that practitioners ought to have
this shortcoming in mind when deploying prototype-based models in practice.
- Abstract(参考訳): 建築設計による人間の解釈可能な決定をもたらすディープニューラルネットワークは、近年、伝統的なブラックボックスモデルのポストホック解釈の代替として人気が高まっている。
これらのネットワークの中で、最も広く使われているアプローチはいわゆるプロトタイプ学習であり、学習された潜在プロトタイプと類似性は、目に見えないデータポイントの分類の基礎となる。
本稿では,このようなアプローチの重要な欠点を指摘する。
すなわち、潜在空間の類似性と入力空間の類似性の間には意味的なギャップがあり、解釈可能性の損なう可能性がある。
いわゆるProtoPNetでこの問題を実証する2つの実験を設計する。
具体的には、このネットワークの解釈可能性のメカニズムは、意図的に作り上げたり、JPEG圧縮アーチファクトを作れば、理解不能な決定を下すことができる。
プロトタイプベースのモデルを実際にデプロイする場合、実践者はこのような欠点を念頭に置いておくべきです。
関連論文リスト
- HyperPg -- Prototypical Gaussians on the Hypersphere for Interpretable Deep Learning [2.0599237172837523]
ProtoPNetは、トレーニング画像から既知のプロトタイプ部品を“見た目”で学習し、予測力とケースベースの推論の固有の解釈可能性を組み合わせる。
この研究は、潜在空間の超球面上のガウス分布を利用した新しいプロトタイプ表現であるHyperPgを導入する。
CUB-200-2011とStanford Carsデータセットの実験では、HyperPgNetが他のプロトタイプ学習アーキテクチャより優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-11T15:50:31Z) - This Probably Looks Exactly Like That: An Invertible Prototypical Network [8.957872207471311]
プロトタイプニューラルネットワークは、概念アノテーションなしで人間に理解可能な機械学習を実現するための、エキサイティングな方法だ。
原型的説明に対する間接的解釈関数への依存は、プロトタイプの情報的力に厳しい制限を課すことが判明した。
本稿では,ガウス混合モデルを用いて正規化フローを構成することにより,ProtoFlowと呼ばれるモデルを提案する。
論文 参考訳(メタデータ) (2024-07-16T21:51:02Z) - Towards Human-Interpretable Prototypes for Visual Assessment of Image
Classification Models [9.577509224534323]
人間に似た推論プロセスに基づいて、解釈可能な設計のモデルが必要です。
ProtoPNetは、教師なしの方法で視覚的に意味のあるプロトタイプを発見すると主張している。
これらのプロトタイプはまだ明確な説明に向けて長い道のりがある。
論文 参考訳(メタデータ) (2022-11-22T11:01:22Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Manifoldron: Direct Space Partition via Manifold Discovery [20.598782641025284]
我々はManifoldronと呼ばれる新しいタイプの機械学習モデルを提案する。
マニフォールドロンはデータから直接決定境界を導出し、多様体構造発見を通じて空間を分割する。
提案したManifoldronは、メインストリームの機械学習モデルと比較して競合的に動作することを示す。
論文 参考訳(メタデータ) (2022-01-14T02:28:17Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Explain by Evidence: An Explainable Memory-based Neural Network for
Question Answering [41.73026155036886]
本稿では,エビデンスに基づくメモリネットワークアーキテクチャを提案する。
データセットを要約し、その決定を下すための証拠を抽出することを学ぶ。
本モデルは,2つの質問応答データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-11-05T21:18:21Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。