論文の概要: On the Reliability of Cue Conflict and Beyond
- arxiv url: http://arxiv.org/abs/2603.10834v2
- Date: Thu, 12 Mar 2026 16:19:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.480893
- Title: On the Reliability of Cue Conflict and Beyond
- Title(参考訳): Cue ConflictとBeyondの信頼性について
- Authors: Pum Jun Kim, Seung-Ah Lee, Seongho Park, Dongyoon Han, Jaejun Yoo,
- Abstract要約: REFINED-BIASは、信頼性と解釈可能な形状・テクスチャバイアス診断のための統合データセットおよび評価フレームワークである。
REFINED-BIASは、形状とテクスチャを明確に定義して、バランスよく、人間とモデルで認識可能なキューペアを構成する。
- 参考スコア(独自算出の注目度): 27.115720760843203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how neural networks rely on visual cues offers a human-interpretable view of their internal decision processes. The cue-conflict benchmark has been influential in probing shape-texture preference and in motivating the insight that stronger, human-like shape bias is often associated with improved in-domain performance. However, we find that the current stylization-based instantiation can yield unstable and ambiguous bias estimates. Specifically, stylization may not reliably instantiate perceptually valid and separable cues nor control their relative informativeness, ratio-based bias can obscure absolute cue sensitivity, and restricting evaluation to preselected classes can distort model predictions by ignoring the full decision space. Together, these factors can confound preference with cue validity, cue balance, and recognizability artifacts. We introduce REFINED-BIAS, an integrated dataset and evaluation framework for reliable and interpretable shape-texture bias diagnosis. REFINED-BIAS constructs balanced, human- and model- recognizable cue pairs using explicit definitions of shape and texture, and measures cue-specific sensitivity over the full label space via a ranking-based metric, enabling fairer cross-model comparisons. Across diverse training regimes and architectures, REFINED-BIAS enables fairer cross-model comparison, more faithful diagnosis of shape and texture biases, and clearer empirical conclusions, resolving inconsistencies that prior cue-conflict evaluations could not reliably disambiguate.
- Abstract(参考訳): ニューラルネットワークが視覚的手がかりをどのように依存しているかを理解することは、内部決定プロセスの人間解釈可能なビューを提供する。
cue-conflictベンチマークは、形状とテクスチャの好みの探索や、強い人間のような形状バイアスがドメイン内のパフォーマンスの改善と関連しているという洞察の動機付けに影響を与えている。
しかし、現在のスタイリゼーションに基づくインスタンス化は不安定で曖昧なバイアス推定をもたらす可能性がある。
特に、スタイリゼーションは、知覚的に有効で分離可能なキューを確実にインスタンス化したり、相対的な情報性を制御することができず、比に基づくバイアスは絶対的なキュー感度を曖昧にし、事前選択されたクラスに対する評価を制限することは、完全な決定空間を無視してモデル予測を歪ませることができる。
これらの要因は共に、嗜好をキューの妥当性、キューのバランス、認識可能性のアーティファクトと相殺することができる。
ReFINED-BIASは、信頼性と解釈可能な形状・テクスチャバイアス診断のための統合データセットおよび評価フレームワークである。
REFINED-BIASは、形状とテクスチャを明確に定義したバランスのとれた、人間とモデルで認識可能なキューペアを構築し、ランキングベースの計量を用いてフルラベル空間上のキュー特異的感度を測定し、より公平なクロスモデル比較を可能にする。
REFINED-BIASは、様々なトレーニング体制とアーキテクチャにわたって、より公平なクロスモデル比較、形状とテクスチャのバイアスのより忠実な診断、そしてより明確な経験的な結論を可能にし、事前のキュー・コンフリクトの評価が確実に曖昧にできないという矛盾を解決する。
関連論文リスト
- Structured Uncertainty Similarity Score (SUSS): Learning a Probabilistic, Interpretable, Perceptual Metric Between Images [3.1296300934639327]
人間の視覚と一致した知覚的類似度スコアは、コンピュータビジョンモデルのトレーニングと評価の両方に不可欠である。
SUSS (Structured Uncertainity similarity Score) を導入し、知覚コンポーネントの集合を通して各イメージをモデル化する。
最終的なスコアは、人間の知覚データセットから学んだ重み付きコンポーネントログ確率の重み付き総和である。
論文 参考訳(メタデータ) (2025-12-03T11:48:59Z) - Improving Group Robustness on Spurious Correlation via Evidential Alignment [26.544938760265136]
ディープニューラルネットワークは、しばしば急激な相関、すなわち非因果的特徴と標的の間の表面的関連を学習し、依存する。
既存のメソッドは通常、外部のグループアノテーションや補助的な決定論的モデルを使用することでこの問題を軽減する。
偏りのあるモデルの振る舞いを理解するために不確実性定量化を利用する新しいフレームワークであるエビデンシャルアライメントを提案する。
論文 参考訳(メタデータ) (2025-06-12T22:47:21Z) - Understanding challenges to the interpretation of disaggregated evaluations of algorithmic fairness [49.35494016290887]
関係する人口を表わすが、実世界の格差を反映するデータである場合、サブグループ間での平等なパフォーマンスは、信頼できない公平さの尺度であることを示す。
本フレームワークでは, 因果関係の明示的な仮定と分析を相補して, 相反や分布変化の制御を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:40:31Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Hierarchical Bias-Driven Stratification for Interpretable Causal Effect
Estimation [1.6874375111244329]
BICauseTreeは、自然実験が局所的に発生するクラスタを識別する解釈可能なバランシング手法である。
合成および現実的なデータセットを用いて手法の性能を評価し、バイアス-解釈可能性トレードオフを探索し、既存の手法に匹敵することを示す。
論文 参考訳(メタデータ) (2024-01-31T10:58:13Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。