論文の概要: Concept-level Debugging of Part-Prototype Networks
- arxiv url: http://arxiv.org/abs/2205.15769v1
- Date: Tue, 31 May 2022 13:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:30:14.781474
- Title: Concept-level Debugging of Part-Prototype Networks
- Title(参考訳): パートプロトタイプネットワークの概念レベルデバッギング
- Authors: Andrea Bontempelli, Stefano Teso, Fausto Giunchiglia, Andrea Passerini
- Abstract要約: Part-Prototype Networks (ProtoPNets) は、透明性を損なうことなくブラックボックスモデルと同じ性能を実現するために設計された概念ベースの分類器である。
本稿では,ProtoPNetのコンセプトレベルデバッガを提案する。
- 参考スコア(独自算出の注目度): 27.700043183428807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Part-prototype Networks (ProtoPNets) are concept-based classifiers designed
to achieve the same performance as black-box models without compromising
transparency. ProtoPNets compute predictions based on similarity to
class-specific part-prototypes learned to recognize parts of training examples,
making it easy to faithfully determine what examples are responsible for any
target prediction and why. However, like other models, they are prone to
picking up confounds and shortcuts from the data, thus suffering from
compromised prediction accuracy and limited generalization. We propose
ProtoPDebug, an effective concept-level debugger for ProtoPNets in which a
human supervisor, guided by the model's explanations, supplies feedback in the
form of what part-prototypes must be forgotten or kept, and the model is
fine-tuned to align with this supervision. An extensive empirical evaluation on
synthetic and real-world data shows that ProtoPDebug outperforms
state-of-the-art debuggers for a fraction of the annotation cost.
- Abstract(参考訳): Part-Prototype Networks (ProtoPNets) は、透明性を損なうことなくブラックボックスモデルと同じ性能を実現するために設計された概念ベースの分類器である。
ProtoPNetsは、トレーニングサンプルの一部を認識するために学んだクラス固有の部分プロトタイプとの類似性に基づいて、予測を計算する。
しかし、他のモデルと同様に、データから欠点やショートカットを拾う傾向にあり、予測精度が損なわれ、一般化が制限される。
本稿では,ProtoPDebugを提案する。ProtoPDebugは,モデルの説明に導かれて,部分プロトタイプを忘れるか,保持するかという形式でフィードバックを提供する,ProtoPNetの効果的なコンセプトレベルのデバッガである。
合成および実世界のデータに対する広範な経験的評価は、ProtoPDebugがアノテーションコストのごく一部で最先端のデバッガより優れていることを示している。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - This actually looks like that: Proto-BagNets for local and global interpretability-by-design [5.037593461859481]
解釈可能性(Interpretability)は、高度なアプリケーションで機械学習モデルを使用するための重要な要件である。
本稿では,解釈可能なプロトタイプベースモデルであるProto-BagNetsを紹介する。
Proto-BagNetは、忠実で正確で臨床的に意味のあるローカルおよびグローバルな説明を提供する。
論文 参考訳(メタデータ) (2024-06-21T14:12:15Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - MCPNet: An Interpretable Classifier via Multi-Level Concept Prototypes [24.28807025839685]
我々は、低レベルの特徴の意思決定プロセスに関する洞察が欠如している説明は、完全に忠実でも有用でもないと論じる。
本稿では,クラス認識概念分布(CCD)の損失を通じて,分類目的のマルチレベル概念のプロトタイプ分布を学習・調整する新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-04-13T11:13:56Z) - Uncertainty-Aware Explanations Through Probabilistic Self-Explainable Neural Networks [17.238290206236027]
プロトタイプベースの自己説明型ニューラルネットワークは、深いが透過的な設計アーキテクチャを提供する。
本稿では,PSENNの確率的再構成(Prob-PSENN)を導入する。
実験の結果, Prob-PSENN は確率的でないものよりも有意義でロバストな説明を提供することがわかった。
論文 参考訳(メタデータ) (2024-03-20T16:47:28Z) - ProtoP-OD: Explainable Object Detection with Prototypical Parts [0.0]
本稿では、原型的局所特徴を構築し、オブジェクト検出に使用するトランスフォーマーの検出拡張を提案する。
提案した拡張は、プロトタイプアクティベーションの離散化表現を演算するボトルネックモジュール、プロトタイプネックで構成されている。
論文 参考訳(メタデータ) (2024-02-29T13:25:15Z) - ProtoSeg: Interpretable Semantic Segmentation with Prototypical Parts [12.959270094693254]
本稿では,解釈可能なセマンティックイメージセグメンテーションの新しいモデルであるProtoSegを紹介する。
ベースライン法に匹敵する精度を達成するため,プロトタイプ部品の機構を適応させる。
ProtoSegは標準的なセグメンテーションモデルとは対照的にセグメンテーションの概念を発見する。
論文 参考訳(メタデータ) (2023-01-28T19:14:32Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。