論文の概要: ProtoS-ViT: Visual foundation models for sparse self-explainable classifications
- arxiv url: http://arxiv.org/abs/2406.10025v1
- Date: Fri, 14 Jun 2024 13:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 13:35:39.733696
- Title: ProtoS-ViT: Visual foundation models for sparse self-explainable classifications
- Title(参考訳): ProtoS-ViT:スパース自己説明可能な分類のための視覚基盤モデル
- Authors: Hugues Turbé, Mina Bjelogrlic, Gianmarco Mengaldo, Christian Lovis,
- Abstract要約: この研究は、凍結したトレーニング済みのViTバックボーンが、いかに効果的に原型モデルに変換できるかを示す。
ProtoS-ViTは、精度、コンパクト性、説明可能性の点で優れた性能を示す既存のプロトタイプモデルを上回る。
- 参考スコア(独自算出の注目度): 0.6249768559720122
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Prototypical networks aim to build intrinsically explainable models based on the linear summation of concepts. However, important challenges remain in the transparency, compactness, and meaningfulness of the explanations provided by these models. This work demonstrates how frozen pre-trained ViT backbones can be effectively turned into prototypical models for both general and domain-specific tasks, in our case biomedical image classifiers. By leveraging strong spatial features combined with a novel prototypical head, ProtoS-ViT surpasses existing prototypical models showing strong performance in terms of accuracy, compactness, and explainability. Model explainability is evaluated through an extensive set of quantitative and qualitative metrics which serve as a general benchmark for the development of prototypical models. Code is available at https://github.com/hturbe/protosvit.
- Abstract(参考訳): プロトタイプネットワークは、概念の線形和に基づいて本質的に説明可能なモデルを構築することを目的としている。
しかし、これらのモデルが提供する説明の透明性、コンパクト性、有意義性には重要な課題が残っている。
本研究は、凍結したViTバックボーンが、一般的なタスクとドメイン固有のタスクの両方のプロトタイプモデルに効果的に変換可能であることを示す。
ProtoS-ViTは、新しい原型ヘッドと組み合わされた強い空間的特徴を利用することで、精度、コンパクト性、説明可能性の点で、優れた性能を示す既存の原型モデルを上回っている。
モデル説明可能性の評価は、原型モデルの開発のための一般的なベンチマークとして機能する、量的および質的なメトリクスの広範なセットを通じて行われる。
コードはhttps://github.com/hturbe/protosvit.comから入手できる。
関連論文リスト
- Few-Shot Medical Image Segmentation with High-Fidelity Prototypes [38.073371773707514]
本稿では,オブジェクトフォアグラウンドと背景を包括的に表現する高忠実度プロトタイプを構築するための,DSPNet(Detail Self-Refined Prototype Network)を提案する。
得られた詳細セマンティクスを維持しつつグローバルなセマンティクスを構築するために,マルチモーダル構造をクラスタリングでモデル化し,それぞれをチャネル的に融合させることにより,前景のプロトタイプを学習する。
論文 参考訳(メタデータ) (2024-06-26T05:06:14Z) - This Looks Better than That: Better Interpretable Models with ProtoPNeXt [14.28283868577614]
原型部品モデルは、コンピュータビジョンのためのブラックボックスディープラーニングモデルに代わる一般的な解釈可能な代替品である。
原型モデルのコンポーネントを統合するための新しいフレームワーク、ProtoPNeXtを作成します。
論文 参考訳(メタデータ) (2024-06-20T18:54:27Z) - DEEM: Diffusion Models Serve as the Eyes of Large Language Models for Image Perception [66.88792390480343]
本稿では,拡散モデルの生成的フィードバックを利用して画像エンコーダのセマンティックな分布を整合させる,シンプルで効果的なアプローチであるDEEMを提案する。
DEEMは、訓練可能なパラメータを少なくし、事前訓練データが少なく、ベースモデルのサイズを小さくし、幻覚を緩和するための強化された堅牢性と優れた能力を示す。
論文 参考訳(メタデータ) (2024-05-24T05:46:04Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - Prototype Learning for Explainable Brain Age Prediction [1.104960878651584]
回帰タスクに特化して設計された,説明可能なプロトタイプベースモデルであるExPeRTを提案する。
提案モデルでは,プロトタイプラベルの重み付き平均値を用いて,学習したプロトタイプのラテント空間における距離からサンプル予測を行う。
提案手法は,モデル推論プロセスに関する知見を提供しながら,最先端の予測性能を実現した。
論文 参考訳(メタデータ) (2023-06-16T14:13:21Z) - Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - ProtoVAE: A Trustworthy Self-Explainable Prototypical Variational Model [18.537838366377915]
ProtoVAEは、クラス固有のプロトタイプをエンドツーエンドで学習する変分自動エンコーダベースのフレームワークである。
表現空間を正規化し、正則性制約を導入することにより、信頼性と多様性を強制する。
論文 参考訳(メタデータ) (2022-10-15T00:42:13Z) - IterMiUnet: A lightweight architecture for automatic blood vessel
segmentation [10.538564380139483]
本稿では,新しい軽量畳み込み型セグメンテーションモデルであるIterMiUnetを提案する。
MiUnetモデルのエンコーダ・デコーダ構造を組み込むことで、その非常にパラメトリズドな性質を克服する。
提案モデルは,多くの疾患の早期診断のためのツールとして活用される可能性が大きい。
論文 参考訳(メタデータ) (2022-08-02T14:33:14Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。