論文の概要: This actually looks like that: Proto-BagNets for local and global interpretability-by-design
- arxiv url: http://arxiv.org/abs/2406.15168v2
- Date: Mon, 24 Jun 2024 08:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 13:16:50.576728
- Title: This actually looks like that: Proto-BagNets for local and global interpretability-by-design
- Title(参考訳): ローカルおよびグローバルな解釈可能性のためのProto-BagNets-by-design
- Authors: Kerol Djoumessi, Bubacarr Bah, Laura Kühlewein, Philipp Berens, Lisa Koch,
- Abstract要約: 解釈可能性(Interpretability)は、高度なアプリケーションで機械学習モデルを使用するための重要な要件である。
本稿では,解釈可能なプロトタイプベースモデルであるProto-BagNetsを紹介する。
Proto-BagNetは、忠実で正確で臨床的に意味のあるローカルおよびグローバルな説明を提供する。
- 参考スコア(独自算出の注目度): 5.037593461859481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is a key requirement for the use of machine learning models in high-stakes applications, including medical diagnosis. Explaining black-box models mostly relies on post-hoc methods that do not faithfully reflect the model's behavior. As a remedy, prototype-based networks have been proposed, but their interpretability is limited as they have been shown to provide coarse, unreliable, and imprecise explanations. In this work, we introduce Proto-BagNets, an interpretable-by-design prototype-based model that combines the advantages of bag-of-local feature models and prototype learning to provide meaningful, coherent, and relevant prototypical parts needed for accurate and interpretable image classification tasks. We evaluated the Proto-BagNet for drusen detection on publicly available retinal OCT data. The Proto-BagNet performed comparably to the state-of-the-art interpretable and non-interpretable models while providing faithful, accurate, and clinically meaningful local and global explanations. The code is available at https://github.com/kdjoumessi/Proto-BagNets.
- Abstract(参考訳): 解釈可能性(Interpretability)は、医療診断を含む高度な応用において、機械学習モデルを使用するための重要な要件である。
ブラックボックスモデルの説明は主に、モデルの振る舞いを忠実に反映しないポストホックメソッドに依存している。
対策として、プロトタイプベースのネットワークが提案されているが、その解釈可能性には、粗い、信頼できない、不正確な説明を提供することが示されているため、制限されている。
本稿では,局所的特徴モデルとプロトタイプ学習の利点を組み合わせた解釈可能なプロトタイプベースモデルであるProto-BagNetsを紹介する。
網膜CTデータを用いたDrusen検出のためのProto-BagNetの評価を行った。
Proto-BagNetは、最先端の解釈可能な非解釈可能なモデルと互換性があり、忠実で正確で臨床的に意味のある局所的およびグローバルな説明を提供する。
コードはhttps://github.com/kdjoumessi/Proto-BagNetsで公開されている。
関連論文リスト
- This Looks Better than That: Better Interpretable Models with ProtoPNeXt [14.28283868577614]
原型部品モデルは、コンピュータビジョンのためのブラックボックスディープラーニングモデルに代わる一般的な解釈可能な代替品である。
原型モデルのコンポーネントを統合するための新しいフレームワーク、ProtoPNeXtを作成します。
論文 参考訳(メタデータ) (2024-06-20T18:54:27Z) - ProtoS-ViT: Visual foundation models for sparse self-explainable classifications [0.6249768559720122]
この研究は、凍結したトレーニング済みのViTバックボーンが、いかに効果的に原型モデルに変換できるかを示す。
ProtoS-ViTは、精度、コンパクト性、説明可能性の点で優れた性能を示す既存のプロトタイプモデルを上回る。
論文 参考訳(メタデータ) (2024-06-14T13:36:30Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Concept-level Debugging of Part-Prototype Networks [27.700043183428807]
Part-Prototype Networks (ProtoPNets) は、透明性を損なうことなくブラックボックスモデルと同じ性能を実現するために設計された概念ベースの分類器である。
本稿では,ProtoPNetのコンセプトレベルデバッガを提案する。
論文 参考訳(メタデータ) (2022-05-31T13:18:51Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable Prototypes [7.8515366468594765]
本稿では,Deformable Part Network(Deformable ProtoPNet)を提案する。
このモデルは、学習中に学習したプロトタイプと比較し、入力画像の分類を行い、「これのように見える」という形で説明を与える。
論文 参考訳(メタデータ) (2021-11-29T22:38:13Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - ProtoryNet - Interpretable Text Classification Via Prototype
Trajectories [4.768286204382179]
本稿では,ProtoryNetと呼ばれるテキスト分類のための新しい解釈可能なディープニューラルネットワークを提案する。
ProtoryNetはテキストシーケンスで各文の最も類似したプロトタイプを見つけることによって予測を行う。
プロトタイプのプルーニングの後、結果のProtoryNetモデルは、すべてのデータセットに対して、20のプロトタイプしか必要としない。
論文 参考訳(メタデータ) (2020-07-03T16:00:26Z) - LFD-ProtoNet: Prototypical Network Based on Local Fisher Discriminant
Analysis for Few-shot Learning [98.64231310584614]
Prototypeal Network (ProtoNet) は、各クラスのプロトタイプ表現までの距離を用いてメートル法学習と分類を行う、数発の学習フレームワークである。
提案手法の有用性は,理論上は予測されるリスクバウンドを提供し,MiniImageNetとタイレッドImageNetに優れた分類精度を実証的に示すことによって示される。
論文 参考訳(メタデータ) (2020-06-15T11:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。