論文の概要: Increasing Interpretability of Neural Networks By Approximating Human Visual Saliency
- arxiv url: http://arxiv.org/abs/2410.16115v1
- Date: Mon, 21 Oct 2024 15:42:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:18:19.245417
- Title: Increasing Interpretability of Neural Networks By Approximating Human Visual Saliency
- Title(参考訳): ヒト視力の近似によるニューラルネットワークの解釈可能性の向上
- Authors: Aidan Boyd, Mohamed Trabelsi, Huseyin Uzunalioglu, Dan Kushnir,
- Abstract要約: 近年の進歩は、個々の画像内の人間の定義した塩分濃度領域への誘導モデルが、性能と解釈可能性を大幅に向上させることを示している。
そこで本研究では,人体塩分からの解釈可能性と性能向上を維持しつつ,80%の人体アノテーションデータを削減するために,人体塩分取り込みと能動的学習の組み合わせ戦略を提案する。
- 参考スコア(独自算出の注目度): 4.061099610106136
- License:
- Abstract: Understanding specifically where a model focuses on within an image is critical for human interpretability of the decision-making process. Deep learning-based solutions are prone to learning coincidental correlations in training datasets, causing over-fitting and reducing the explainability. Recent advances have shown that guiding models to human-defined regions of saliency within individual images significantly increases performance and interpretability. Human-guided models also exhibit greater generalization capabilities, as coincidental dataset features are avoided. Results show that models trained with saliency incorporation display an increase in interpretability of up to 30% over models trained without saliency information. The collection of this saliency information, however, can be costly, laborious and in some cases infeasible. To address this limitation, we propose a combination strategy of saliency incorporation and active learning to reduce the human annotation data required by 80% while maintaining the interpretability and performance increase from human saliency. Extensive experimentation outlines the effectiveness of the proposed approach across five public datasets and six active learning criteria.
- Abstract(参考訳): 意思決定プロセスの人間の解釈可能性において、モデルがイメージ内のどこにフォーカスするかを具体的に理解することが重要である。
ディープラーニングベースのソリューションは、トレーニングデータセットの偶然の相関を学習する傾向があり、過剰な適合と説明可能性の低下を引き起こす。
近年の進歩は、個々の画像内の人間の定義した塩分濃度領域への誘導モデルが、性能と解釈可能性を大幅に向上させることを示している。
ヒューマンガイドモデルは、偶然のデータセットの特徴が避けられるため、より高度な一般化能力を示す。
その結果,サリエンシを訓練したモデルは,サリエンシ情報を持たないモデルに比べて最大30%の解釈可能性を示した。
しかし、この情報収集は費用がかかり、手間がかかり、場合によっては不可能である。
この制限に対処するため,本研究では,人体塩分からの解釈可能性と性能向上を維持しつつ,80パーセントの人体アノテーションデータを削減するために,人体塩分取り込みとアクティブラーニングの組み合わせ戦略を提案する。
大規模な実験では、5つの公開データセットと6つのアクティブな学習基準にまたがって提案されたアプローチの有効性を概説している。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - On Feature Decorrelation in Cloth-Changing Person Re-identification [32.27835236681253]
衣服交換者再識別(CC-ReID)はコンピュータビジョンにおいて重要な課題である。
従来の方法では、複数のモダリティデータを統合するか、手動でアノテートされた衣料ラベルを使用する。
本稿では,密度比推定に基づく新しい正規化手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T22:25:37Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Analyzing Effects of Mixed Sample Data Augmentation on Model
Interpretability [15.078314022161237]
モデルの学習における解釈可能性とデータ拡張戦略の関係について検討する。
実験により、混合サンプルデータ拡張で訓練されたモデルは、解釈可能性の低下を示すことが示された。
論文 参考訳(メタデータ) (2023-03-26T03:01:39Z) - Denoising Diffusion Probabilistic Models for Generation of Realistic
Fully-Annotated Microscopy Image Data Sets [1.07539359851877]
本研究では,拡散モデルにより,フルアノテートされた顕微鏡画像データセットを効果的に生成できることを実証する。
提案されたパイプラインは、ディープラーニングベースのセグメンテーションアプローチのトレーニングにおいて、手動アノテーションへの依存を減らすのに役立つ。
論文 参考訳(メタデータ) (2023-01-02T14:17:08Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。