論文の概要: Learning to Select Prototypical Parts for Interpretable Sequential Data
Modeling
- arxiv url: http://arxiv.org/abs/2212.03396v1
- Date: Wed, 7 Dec 2022 01:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 15:12:01.095598
- Title: Learning to Select Prototypical Parts for Interpretable Sequential Data
Modeling
- Title(参考訳): 解釈可能な逐次データモデリングのための原型部品の選択学習
- Authors: Yifei Zhang, Neng Gao, Cunqing Ma
- Abstract要約: 本稿では,原型概念の線形結合を用いた自己説明選択モデル(SESM)を提案する。
より良い解釈可能性を得るために,多様性,安定性,局所性など,複数の制約をトレーニング対象として設計する。
- 参考スコア(独自算出の注目度): 7.376829794171344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prototype-based interpretability methods provide intuitive explanations of
model prediction by comparing samples to a reference set of memorized exemplars
or typical representatives in terms of similarity. In the field of sequential
data modeling, similarity calculations of prototypes are usually based on
encoded representation vectors. However, due to highly recursive functions,
there is usually a non-negligible disparity between the prototype-based
explanations and the original input. In this work, we propose a Self-Explaining
Selective Model (SESM) that uses a linear combination of prototypical concepts
to explain its own predictions. The model employs the idea of case-based
reasoning by selecting sub-sequences of the input that mostly activate
different concepts as prototypical parts, which users can compare to
sub-sequences selected from different example inputs to understand model
decisions. For better interpretability, we design multiple constraints
including diversity, stability, and locality as training objectives. Extensive
experiments in different domains demonstrate that our method exhibits promising
interpretability and competitive accuracy.
- Abstract(参考訳): プロトタイプベースの解釈可能性手法は、類似性の観点から記憶された例や典型的な代表者の参照集合と比較することにより、モデル予測の直感的な説明を提供する。
逐次データモデリングの分野では、プロトタイプの類似度計算は通常符号化表現ベクトルに基づいている。
しかし、非常に再帰的な関数のため、通常プロトタイプベースの説明と元の入力の間には無視できない相違がある。
本研究では,原型概念の線形結合を用いた自己説明選択モデル(SESM)を提案する。
このモデルは、入力のサブシーケンスを選択することでケースベース推論の考え方を採用しており、それは主に異なる概念を原型的な部分として活性化し、ユーザが異なる例入力から選択したサブシーケンスと比較してモデル決定を理解することができる。
より良い解釈可能性を得るために,多様性,安定性,局所性といった制約をトレーニング対象として設計する。
異なる領域における大規模な実験により,提案手法は有望な解釈可能性と競争精度を示すことが示された。
関連論文リスト
- Multi-Scale Grouped Prototypes for Interpretable Semantic Segmentation [7.372346036256517]
意味的セグメンテーションを解釈可能なものにするための、有望なアプローチとして、プロトタイプ的な部分学習が登場している。
本稿では,多スケール画像表現を利用した意味的セグメンテーションの解釈手法を提案する。
Pascal VOC,Cityscapes,ADE20Kで行った実験により,提案手法はモデルの疎結合性を高め,既存のプロトタイプ手法よりも解釈可能性を高め,非解釈可能なモデルとの性能ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2024-09-14T17:52:59Z) - A prototype-based model for set classification [2.0564549686015594]
ベクトルの集合を表す一般的な方法は、それらを線型部分空間としてモデル化することである。
我々は、そのような線型部分空間、グラスマン多様体から形成される多様体について、プロトタイプベースの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T04:29:18Z) - ProtoSeg: Interpretable Semantic Segmentation with Prototypical Parts [12.959270094693254]
本稿では,解釈可能なセマンティックイメージセグメンテーションの新しいモデルであるProtoSegを紹介する。
ベースライン法に匹敵する精度を達成するため,プロトタイプ部品の機構を適応させる。
ProtoSegは標準的なセグメンテーションモデルとは対照的にセグメンテーションの概念を発見する。
論文 参考訳(メタデータ) (2023-01-28T19:14:32Z) - ProtoVAE: A Trustworthy Self-Explainable Prototypical Variational Model [18.537838366377915]
ProtoVAEは、クラス固有のプロトタイプをエンドツーエンドで学習する変分自動エンコーダベースのフレームワークである。
表現空間を正規化し、正則性制約を導入することにより、信頼性と多様性を強制する。
論文 参考訳(メタデータ) (2022-10-15T00:42:13Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Attentional Prototype Inference for Few-Shot Segmentation [128.45753577331422]
数発のセグメンテーションのための確率的潜在変数フレームワークである注意型プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は4つのベンチマークで広範な実験を行い、提案手法は最先端のプロトタイプベースの手法よりも、少なくとも競争力があり、しばしば優れた性能が得られる。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。