論文の概要: But that's not why: Inference adjustment by interactive prototype
deselection
- arxiv url: http://arxiv.org/abs/2203.10087v1
- Date: Fri, 18 Mar 2022 17:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:30:19.003079
- Title: But that's not why: Inference adjustment by interactive prototype
deselection
- Title(参考訳): インタラクティブなプロトタイプ選択による推論調整は
- Authors: Michael Gerstenberger, Sebastian Lapuschkin, Peter Eisert, Sebastian
Bosse
- Abstract要約: ディープインタラクティブなプロトタイプ調整により、ユーザーはヒントを与え、モデルの推論を修正することができる。
正しい分類でさえ、データセット内の変数の相違から生じる不合理なプロトタイプに依存することができる。
- 参考スコア(独自算出の注目度): 3.7976858647383605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite significant advances in machine learning, decision-making of
artificial agents is still not perfect and often requires post-hoc human
interventions. If the prediction of a model relies on unreasonable factors it
is desirable to remove their effect. Deep interactive prototype adjustment
enables the user to give hints and correct the model's reasoning. In this
paper, we demonstrate that prototypical-part models are well suited for this
task as their prediction is based on prototypical image patches that can be
interpreted semantically by the user. It shows that even correct
classifications can rely on unreasonable prototypes that result from
confounding variables in a dataset. Hence, we propose simple yet effective
interaction schemes for inference adjustment: The user is consulted
interactively to identify faulty prototypes. Non-object prototypes can be
removed by prototype masking or a custom mode of deselection training.
Interactive prototype rejection allows machine learning na\"{i}ve users to
adjust the logic of reasoning without compromising the accuracy.
- Abstract(参考訳): 機械学習の大幅な進歩にもかかわらず、人工エージェントの意思決定はまだ完璧ではなく、しばしばポストホックな人間の介入を必要とする。
モデルの予測が不合理な要因に依存している場合、その効果を取り除くことが望ましい。
深いインタラクティブなプロトタイプ調整により、ユーザーはヒントを与え、モデルの推論を修正できる。
本稿では,その予測がユーザによって意味的に解釈できる原型的イメージパッチに基づいているため,原型的部分モデルがこのタスクに適していることを示す。
正しい分類でさえ、データセットに変数が混ざった結果生じる不合理なプロトタイプに依存する可能性がある。
そこで,本研究では,推論調整のための簡易かつ効果的なインタラクション手法を提案する。
非対象のプロトタイプは、プロトタイプマスキングやカスタムデセレクショントレーニングによって取り除くことができる。
インタラクティブなプロトタイプの拒絶により、機械学習のna\"{i}veユーザは、精度を損なうことなく推論のロジックを調整できる。
関連論文リスト
- Sparse Prototype Network for Explainable Pedestrian Behavior Prediction [60.80524827122901]
Sparse Prototype Network (SPN) は,歩行者の将来の行動,軌道,ポーズを同時に予測するための説明可能な手法である。
モノセマンティリティとクラスタリングの制約によって規則化されたプロトタイプは、一貫性と人間の理解可能な機能を学ぶ。
論文 参考訳(メタデータ) (2024-10-16T03:33:40Z) - This actually looks like that: Proto-BagNets for local and global interpretability-by-design [5.037593461859481]
解釈可能性(Interpretability)は、高度なアプリケーションで機械学習モデルを使用するための重要な要件である。
本稿では,解釈可能なプロトタイプベースモデルであるProto-BagNetsを紹介する。
Proto-BagNetは、忠実で正確で臨床的に意味のあるローカルおよびグローバルな説明を提供する。
論文 参考訳(メタデータ) (2024-06-21T14:12:15Z) - Towards Human-Interpretable Prototypes for Visual Assessment of Image
Classification Models [9.577509224534323]
人間に似た推論プロセスに基づいて、解釈可能な設計のモデルが必要です。
ProtoPNetは、教師なしの方法で視覚的に意味のあるプロトタイプを発見すると主張している。
これらのプロトタイプはまだ明確な説明に向けて長い道のりがある。
論文 参考訳(メタデータ) (2022-11-22T11:01:22Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable Prototypes [7.8515366468594765]
本稿では,Deformable Part Network(Deformable ProtoPNet)を提案する。
このモデルは、学習中に学習したプロトタイプと比較し、入力画像の分類を行い、「これのように見える」という形で説明を与える。
論文 参考訳(メタデータ) (2021-11-29T22:38:13Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - This Looks Like That, Because ... Explaining Prototypes for
Interpretable Image Recognition [4.396860522241307]
プロトタイプを説明するべきだ、と私たちは主張する。
本手法は,色調,形状,テクスチャ,コントラスト,彩度の影響を定量化し,プロトタイプの意味を明らかにする。
このような「誤解を招く」プロトタイプを説明することで、プロトタイプベースの分類モデルの解釈可能性とシミュラビリティを向上させることができる。
論文 参考訳(メタデータ) (2020-11-05T14:43:07Z) - Learning Sparse Prototypes for Text Generation [120.38555855991562]
プロトタイプ駆動のテキスト生成は、トレーニングコーパス全体の保存とインデックスを必要とするため、テスト時に非効率である。
本稿では,言語モデリング性能を向上するスパースなプロトタイプサポートセットを自動的に学習する新しい生成モデルを提案する。
実験では,1000倍のメモリ削減を実現しつつ,従来のプロトタイプ駆動型言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2020-06-29T19:41:26Z) - How do Decisions Emerge across Layers in Neural Models? Interpretation
with Differentiable Masking [70.92463223410225]
DiffMaskは、差分性を維持しながら入力のサブセットをマスクアウトすることを学ぶ。
入力トークンを包含または無視する決定は、中間隠蔽層に基づく単純なモデルで行われる。
これにより、属性のヒートマップをプロットするだけでなく、ネットワーク層間で意思決定がどのように形成されるかを分析することができます。
論文 参考訳(メタデータ) (2020-04-30T17:36:14Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。