論文の概要: From Pixels to Perception: Interpretable Predictions via Instance-wise Grouped Feature Selection
- arxiv url: http://arxiv.org/abs/2505.06003v1
- Date: Fri, 09 May 2025 12:34:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.263633
- Title: From Pixels to Perception: Interpretable Predictions via Instance-wise Grouped Feature Selection
- Title(参考訳): 画素から知覚へ:インスタンスワイドな特徴選択による解釈可能な予測
- Authors: Moritz Vandenhirtz, Julia E. Vogt,
- Abstract要約: 本稿では,入力画像のインスタンスワイドスペーシングにより,本質的に解釈可能な予測を行う手法を提案する。
空間化と人間の知覚を一致させるために,意味的に意味のあるピクセル領域の空間におけるマスキングを学習する。
半合成および自然な画像データセットに実証的に示し、我々の本質的に解釈可能な分類器は、最先端のベンチマークよりも有意義で人間の理解可能な予測を生成する。
- 参考スコア(独自算出の注目度): 9.8346104742377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the decision-making process of machine learning models provides valuable insights into the task, the data, and the reasons behind a model's failures. In this work, we propose a method that performs inherently interpretable predictions through the instance-wise sparsification of input images. To align the sparsification with human perception, we learn the masking in the space of semantically meaningful pixel regions rather than on pixel-level. Additionally, we introduce an explicit way to dynamically determine the required level of sparsity for each instance. We show empirically on semi-synthetic and natural image datasets that our inherently interpretable classifier produces more meaningful, human-understandable predictions than state-of-the-art benchmarks.
- Abstract(参考訳): 機械学習モデルの意思決定プロセスを理解することは、タスク、データ、そしてモデルの失敗の背後にある理由に関する貴重な洞察を提供する。
本研究では,入力画像のインスタンスワイドスペーシングにより,本質的に解釈可能な予測を行う手法を提案する。
このスペーシフィケーションを人間の知覚に合わせるために、画素レベルではなく意味的に意味のあるピクセル領域の空間におけるマスキングを学習する。
さらに、各インスタンスに要求されるスパーシリティのレベルを動的に決定する明示的な方法を紹介します。
半合成および自然な画像データセットに実証的に示し、我々の本質的に解釈可能な分類器は、最先端のベンチマークよりも有意義で人間の理解可能な予測を生成する。
関連論文リスト
- COMIX: Compositional Explanations using Prototypes [46.15031477955461]
本稿では,機械表現を人間の理解と整合させる手法を提案する。
提案手法はCOMIXと呼ばれ,学習概念に基づいて領域に分解することで画像の分類を行う。
提案手法は説明の完全性を提供し,その効率性は他の本質的に解釈可能なアーキテクチャと競合することを示す。
論文 参考訳(メタデータ) (2025-01-10T15:40:31Z) - Pixel-wise Gradient Uncertainty for Convolutional Neural Networks
applied to Out-of-Distribution Segmentation [0.43512163406552007]
本稿では,推定時に効率よく計算できる画素単位の損失勾配から不確実点を求める手法を提案する。
本実験は,提案手法が誤った画素分類を識別し,無視可能な計算オーバーヘッドで予測品質を推定する能力を示す。
論文 参考訳(メタデータ) (2023-03-13T08:37:59Z) - Sampling Based On Natural Image Statistics Improves Local Surrogate
Explainers [111.31448606885672]
代理説明器は、モデルが予測にどのように到着するかをさらに理解するために、ポストホック解釈法として人気がある。
そこで本研究では,(1)局所領域のサンプリング方法を変更すること,(2)自然画像の分布特性を知覚的指標を用いて伝達すること,の2つの手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T08:10:13Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Dense Semantic Contrast for Self-Supervised Visual Representation
Learning [12.636783522731392]
意味圏決定境界を密度の高いレベルでモデル化するためのDense Semantic Contrast(DSC)を提案する。
本稿では,多粒度表現学習のためのクロスイメージ・セマンティック・コントラッシブ・ラーニング・フレームワークを提案する。
実験結果から,DSCモデルは下流の高密度予測タスクに転送する場合に,最先端の手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-09-16T07:04:05Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Validation and generalization of pixel-wise relevance in convolutional
neural networks trained for face classification [0.0]
重要モデルのパラメータ間で、関連度がどう異なるかを示し、一般化する。
関連性に基づく画像マスキングにより、顔分類の関連マップは一般に安定であることが判明した。
モデル間の関係写像の詳細な解析により、選択パラメータの特定の利点を示す一般化における非対称性が明らかになった。
論文 参考訳(メタデータ) (2020-06-16T23:20:40Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。