論文の概要: On the Interpretability of Part-Prototype Based Classifiers: A Human
Centric Analysis
- arxiv url: http://arxiv.org/abs/2310.06966v1
- Date: Tue, 10 Oct 2023 19:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 01:24:37.673675
- Title: On the Interpretability of Part-Prototype Based Classifiers: A Human
Centric Analysis
- Title(参考訳): 部分プロトタイプ型分類器の解釈可能性について:人文分析
- Authors: Omid Davoodi, Shayan Mohammadizadehsamakosh, Majid Komeili
- Abstract要約: 部分プロトタイプネットワークは、最近、現在のブラックボックス画像分類器の多くに対する解釈可能な代替手段として関心を集めている。
我々は,人的視点から部分プロトタイプ型モデルの解釈可能性を評価するための枠組みを考案した。
- 参考スコア(独自算出の注目度): 4.465883551216819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Part-prototype networks have recently become methods of interest as an
interpretable alternative to many of the current black-box image classifiers.
However, the interpretability of these methods from the perspective of human
users has not been sufficiently explored. In this work, we have devised a
framework for evaluating the interpretability of part-prototype-based models
from a human perspective. The proposed framework consists of three actionable
metrics and experiments. To demonstrate the usefulness of our framework, we
performed an extensive set of experiments using Amazon Mechanical Turk. They
not only show the capability of our framework in assessing the interpretability
of various part-prototype-based models, but they also are, to the best of our
knowledge, the most comprehensive work on evaluating such methods in a unified
framework.
- Abstract(参考訳): 部分プロトタイプネットワークは近年,現在のブラックボックス画像分類器の多くに対する解釈可能な代替手段として注目されている。
しかし,これらの手法の人間ユーザの視点からの解釈可能性については十分に検討されていない。
本研究では,人間の視点から部分プロトタイプモデルの解釈可能性を評価する枠組みを考案した。
提案フレームワークは3つの実行可能なメトリクスと実験で構成されている。
本フレームワークの有用性を示すため,Amazon Mechanical Turkを用いた広範囲な実験を行った。
彼らは、様々なpart-prototypeベースのモデルの解釈可能性を評価するためのフレームワークの能力を示すだけでなく、我々の知る限りでは、統一されたフレームワークでこれらのメソッドを評価する最も包括的な作業でもある。
関連論文リスト
- Towards a Unified Framework for Evaluating Explanations [0.6138671548064356]
我々は、モデルと利害関係者の間の仲介者として、本質的に解釈可能なモデルであれ、不透明なブラックボックスモデルであれ、説明が役立ちます。
本稿では,学習者の行動を予測するための解釈可能なニューラルネットワークの例を用いて,これらの基準と具体的な評価手法について述べる。
論文 参考訳(メタデータ) (2024-05-22T21:49:28Z) - Establishing a Unified Evaluation Framework for Human Motion Generation: A Comparative Analysis of Metrics [6.708543240320757]
本稿では,人体動作生成のための8つの評価指標について詳細に検討する。
我々は一貫したモデル比較を容易にするため、統一的な評価設定を通じて標準化されたプラクティスを提案する。
変形する多様性を分析して時間歪みの多様性を評価する新しい指標を提案する。
論文 参考訳(メタデータ) (2024-05-13T12:10:57Z) - Diffusion-based Visual Counterfactual Explanations -- Towards Systematic
Quantitative Evaluation [64.0476282000118]
視覚的対物的説明法(VCE)の最新手法は、深い生成モデルの力を利用して、印象的な画質の高次元画像の新しい例を合成する。
評価手順が大きく異なり,個々の実例の視覚検査や小規模なユーザスタディなど,これらのVCE手法の性能を比較することは,現時点では困難である。
本稿では,VCE手法の体系的,定量的評価のためのフレームワークと,使用する指標の最小セットを提案する。
論文 参考訳(メタデータ) (2023-08-11T12:22:37Z) - Probing Classifiers: Promises, Shortcomings, and Alternatives [28.877572447481683]
探索型分類器は自然言語処理のディープニューラルネットワークモデルを解釈・解析するための重要な手法の1つである。
この記事では、Probing Classifiersフレームワークを批判的にレビューし、欠点、改善、代替アプローチを強調します。
論文 参考訳(メタデータ) (2021-02-24T18:36:14Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - On quantitative aspects of model interpretability [0.0]
これらの次元に沿った手法は、2つの概念的部分、すなわち抽出器と実際の説明可能性法に含めることができると論じる。
異なるベンチマークタスクのメトリクスを実験的に検証し、そのタスクに最も適したメソッドの選択において、実践者の指導にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-07-15T10:05:05Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。