論文の概要: An Analysis of Concept Bottleneck Models: Measuring, Understanding, and Mitigating the Impact of Noisy Annotations
- arxiv url: http://arxiv.org/abs/2505.16705v1
- Date: Thu, 22 May 2025 14:06:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.347879
- Title: An Analysis of Concept Bottleneck Models: Measuring, Understanding, and Mitigating the Impact of Noisy Annotations
- Title(参考訳): 概念ボトルネックモデルの解析:ノイズアノテーションの影響の測定・理解・緩和
- Authors: Seonghwan Park, Jueun Mun, Donghyun Oh, Namhoon Lee,
- Abstract要約: 概念ボトルネックモデル(CBM)は、予測を人間の解釈可能な概念に分解することで、解釈可能性を保証する。
しかし、この透明性を実現するためのCBMのトレーニングに使用されるアノテーションは、しばしばうるさくなります。
適度な腐敗でさえ、予測性能、解釈可能性、介入効果を同時に損なう。
- 参考スコア(独自算出の注目度): 4.72358438230281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept bottleneck models (CBMs) ensure interpretability by decomposing predictions into human interpretable concepts. Yet the annotations used for training CBMs that enable this transparency are often noisy, and the impact of such corruption is not well understood. In this study, we present the first systematic study of noise in CBMs and show that even moderate corruption simultaneously impairs prediction performance, interpretability, and the intervention effectiveness. Our analysis identifies a susceptible subset of concepts whose accuracy declines far more than the average gap between noisy and clean supervision and whose corruption accounts for most performance loss. To mitigate this vulnerability we propose a two-stage framework. During training, sharpness-aware minimization stabilizes the learning of noise-sensitive concepts. During inference, where clean labels are unavailable, we rank concepts by predictive entropy and correct only the most uncertain ones, using uncertainty as a proxy for susceptibility. Theoretical analysis and extensive ablations elucidate why sharpness-aware training confers robustness and why uncertainty reliably identifies susceptible concepts, providing a principled basis that preserves both interpretability and resilience in the presence of noise.
- Abstract(参考訳): 概念ボトルネックモデル(CBM)は、予測を人間の解釈可能な概念に分解することで、解釈可能性を保証する。
しかし、この透明性を実現するためのCBMのトレーニングに使用されるアノテーションは、しばしばうるさいものであり、そのような汚職の影響はよく理解されていない。
そこで本研究では,CBMにおけるノイズのシステマティックな研究を行い,中等度な汚損でも予測性能,解釈可能性,介入効果を同時に損なうことを示す。
我々の分析では、ノイズとクリーンな監視の間の平均的なギャップよりも精度がはるかに低下し、パフォーマンス損失の大部分を汚職が占める概念の、感受性の高いサブセットを特定した。
この脆弱性を軽減するために、我々は2段階のフレームワークを提案する。
訓練中、シャープネスを意識した最小化はノイズ感受性の概念の学習を安定化させる。
クリーンなラベルが利用できない推論では、予測エントロピーによって概念をランク付けし、最も不確実なものだけを修正します。
理論的分析と広範囲な説明は、シャープネスを意識したトレーニングが頑丈さを尊重する理由と、不確実性が受容可能な概念を確実に識別する理由を解明し、ノイズの存在下での解釈可能性とレジリエンスを両立させる原則的基盤を提供する。
関連論文リスト
- TULiP: Test-time Uncertainty Estimation via Linearization and Weight Perturbation [11.334867025651233]
OOD検出のための理論駆動型不確実性推定器TULiPを提案する。
本手法では,収束前にネットワークに適用される仮説的摂動を考察する。
提案手法は,特に近分布試料について,最先端の性能を示す。
論文 参考訳(メタデータ) (2025-05-22T17:16:41Z) - All You Need for Counterfactual Explainability Is Principled and Reliable Estimate of Aleatoric and Epistemic Uncertainty [27.344785490275864]
我々は透明性研究が人工知能の基本的な概念の多くを見落としていると主張している。
本質的に透明なモデルは、人間中心の説明的洞察の恩恵を受けることができる。
高度なレベルでは、人工知能の基礎を透明性研究に統合することは、より信頼性が高く、堅牢で、理解可能な予測モデルを生み出すことを約束する。
論文 参考訳(メタデータ) (2025-02-24T09:38:31Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Integrating Uncertainty into Neural Network-based Speech Enhancement [27.868722093985006]
時間周波数領域における監視されたマスキングアプローチは、ディープニューラルネットワークを使用して乗法マスクを推定し、クリーンな音声を抽出することを目的としている。
これにより、信頼性の保証や尺度を使わずに、各入力に対する単一の見積もりが導かれる。
クリーン音声推定における不確実性モデリングの利点について検討する。
論文 参考訳(メタデータ) (2023-05-15T15:55:12Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Elucidating Noisy Data via Uncertainty-Aware Robust Learning [9.711326718689495]
提案手法は,汚れたデータセットからクリーンなターゲット分布を学習することができる。
我々は,2種類の予測不確かさを区別できる混合専門家モデルを活用する。
汚職パターン推定の性能を評価するための新しい検証手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T14:44:50Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。