論文の概要: Posthoc Interpretation via Quantization
- arxiv url: http://arxiv.org/abs/2303.12659v2
- Date: Sat, 27 May 2023 12:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:10:00.449675
- Title: Posthoc Interpretation via Quantization
- Title(参考訳): 量子化によるポストホック解釈
- Authors: Francesco Paissan, Cem Subakan, Mirco Ravanelli
- Abstract要約: 本稿では,量子化によるポストホック解釈 (Posthoc Interpretation via Quantization, PIQ) と呼ばれる新しい手法を導入する。
本手法はベクトル量子化を用いて分類器の表現を離散クラス固有の潜在空間に変換する。
我々のモデル定式化は、事前訓練されたアノテーションモデルの監督を組み込むことで、学習の概念を可能にする。
- 参考スコア(独自算出の注目度): 9.510336895838703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new approach, called Posthoc Interpretation via
Quantization (PIQ), for interpreting decisions made by trained classifiers. Our
method utilizes vector quantization to transform the representations of a
classifier into a discrete, class-specific latent space. The class-specific
codebooks act as a bottleneck that forces the interpreter to focus on the parts
of the input data deemed relevant by the classifier for making a prediction.
Our model formulation also enables learning concepts by incorporating the
supervision of pretrained annotation models such as state-of-the-art image
segmentation models. We evaluated our method through quantitative and
qualitative studies involving black-and-white images, color images, and audio.
As a result of these studies we found that PIQ generates interpretations that
are more easily understood by participants to our user studies when compared to
several other interpretation methods in the literature.
- Abstract(参考訳): 本稿では,訓練された分類器による決定を量子化によるポストホック解釈(piq)と呼ばれる新しい手法を提案する。
本手法はベクトル量子化を用いて分類器の表現を離散クラス固有の潜在空間に変換する。
クラス固有のコードブックは、インタプリタが予測を行うために、分類器が関連すると思われる入力データの一部に集中するよう強制するボトルネックとして機能する。
また,最先端画像セグメンテーションモデルのような事前学習されたアノテーションモデルの監督を取り入れることで,学習概念の学習を可能にする。
本研究では,白黒画像,カラー画像,オーディオなどの定量的・質的研究を通じて評価を行った。
これらの研究の結果,PIQは文献の他のいくつかの解釈方法と比較して,ユーザ研究の参加者が理解しやすい解釈を生成することがわかった。
関連論文リスト
- Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - TExplain: Explaining Learned Visual Features via Pre-trained (Frozen) Language Models [14.019349267520541]
本稿では,事前学習した画像分類器の学習特徴を解釈するために,言語モデルの能力を活用する新しい手法を提案する。
提案手法は,与えられた画像の分類器によって学習された特徴を説明するために,膨大な数の文を生成する。
提案手法は,視覚表現に対応する頻繁な単語を初めて利用し,意思決定プロセスに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-09-01T20:59:46Z) - A Test Statistic Estimation-based Approach for Establishing
Self-interpretable CNN-based Binary Classifiers [7.424003880270276]
ポストホック解釈可能性法は、可算だが異なる解釈を生成できるという限界がある。
提案手法は自己解釈可能で定量的であり,従来のポストホック・インタプリタビリティ法とは異なり,自己解釈可能で定量的である。
論文 参考訳(メタデータ) (2023-03-13T05:51:35Z) - Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Autoregressive Co-Training for Learning Discrete Speech Representations [19.400428010647573]
音声の離散表現を学習する離散潜在変数を持つ生成モデルを考える。
提案手法は音素単位と高い相関関係を持つ離散表現を学習する。
論文 参考訳(メタデータ) (2022-03-29T18:17:18Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Instance-Based Learning of Span Representations: A Case Study through
Named Entity Recognition [48.06319154279427]
本研究では,スパン間の類似性を学習するインスタンスベースの学習手法を提案する。
本手法では,性能を犠牲にすることなく高い解釈性を持つモデルを構築することができる。
論文 参考訳(メタデータ) (2020-04-29T23:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。