論文の概要: Fragility-aware Classification for Understanding Risk and Improving Generalization
- arxiv url: http://arxiv.org/abs/2502.13024v1
- Date: Tue, 18 Feb 2025 16:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:05:37.415475
- Title: Fragility-aware Classification for Understanding Risk and Improving Generalization
- Title(参考訳): リスク理解と一般化改善のための脆弱性認識分類
- Authors: Chen Yang, Zheng Cui, Daniel Zhuoyu Long, Jin Qi, Ruohan Zhan,
- Abstract要約: リスク・リバースの観点から分類性能を評価する新しい指標であるFragility Index(FI)を導入する。
我々は, クロスエントロピー損失, ヒンジ型損失, リプシッツ損失の正確な修正を導き, 深層学習モデルへのアプローチを拡張した。
- 参考スコア(独自算出の注目度): 6.926253982569273
- License:
- Abstract: Classification models play a critical role in data-driven decision-making applications such as medical diagnosis, user profiling, recommendation systems, and default detection. Traditional performance metrics, such as accuracy, focus on overall error rates but fail to account for the confidence of incorrect predictions, thereby overlooking the risk of confident misjudgments. This risk is particularly significant in cost-sensitive and safety-critical domains like medical diagnosis and autonomous driving, where overconfident false predictions may cause severe consequences. To address this issue, we introduce the Fragility Index (FI), a novel metric that evaluates classification performance from a risk-averse perspective by explicitly capturing the tail risk of confident misjudgments. To enhance generalizability, we define FI within the robust satisficing (RS) framework, incorporating data uncertainty. We further develop a model training approach that optimizes FI while maintaining tractability for common loss functions. Specifically, we derive exact reformulations for cross-entropy loss, hinge-type loss, and Lipschitz loss, and extend the approach to deep learning models. Through synthetic experiments and real-world medical diagnosis tasks, we demonstrate that FI effectively identifies misjudgment risk and FI-based training improves model robustness and generalizability. Finally, we extend our framework to deep neural network training, further validating its effectiveness in enhancing deep learning models.
- Abstract(参考訳): 分類モデルは、医療診断、ユーザプロファイリング、レコメンデーションシステム、デフォルト検出などのデータ駆動意思決定アプリケーションにおいて重要な役割を果たす。
正確さなどの従来のパフォーマンス指標は、全体的なエラー率に重点を置いているが、誤った予測の信頼性を考慮していないため、確実な誤判断のリスクを見落としている。
このリスクは、医療診断や自律運転のようなコスト感受性と安全性に重要な領域において特に重要であり、過度に自信過剰な誤った予測が深刻な結果をもたらす可能性がある。
この問題に対処するため,信頼性障害のテールリスクを明示的に把握し,リスク・リバースの観点から分類性能を評価する新たな指標であるFragility Index(FI)を導入する。
一般化可能性を高めるため、データ不確実性を取り入れたロバスト満足度(RS)フレームワーク内でFIを定義する。
さらに、共通損失関数のトラクタビリティを維持しながらFIを最適化するモデルトレーニング手法を開発した。
具体的には, クロスエントロピー損失, ヒンジ型損失, リプシッツ損失の正確な修正を導き, 深層学習モデルへのアプローチを拡張した。
人工的な実験と実世界の医療診断タスクを通じて、FIは誤判断リスクを効果的に識別し、FIベースのトレーニングはモデルの堅牢性と一般化性を向上することを示した。
最後に、私たちのフレームワークをディープニューラルネットワークトレーニングに拡張し、ディープラーニングモデルの強化の有効性をさらに検証します。
関連論文リスト
- Quantifying calibration error in modern neural networks through evidence based theory [0.0]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - Deep Evidential Learning for Radiotherapy Dose Prediction [0.0]
本稿では放射線治療用線量予測分野におけるDeep Evidential Learningと呼ばれる不確実性定量化フレームワークの新たな応用法を提案する。
このモデルは,ネットワークトレーニング完了時の予測誤差と相関関係を持つ不確実性推定に有効に活用できることを見出した。
論文 参考訳(メタデータ) (2024-04-26T02:43:45Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Inadequacy of common stochastic neural networks for reliable clinical
decision support [0.4262974002462632]
医療意思決定におけるAIの普及は、倫理的および安全性に関する懸念から、いまだに妨げられている。
しかし、一般的なディープラーニングアプローチは、データシフトによる過信傾向にある。
本研究は臨床応用における信頼性について考察する。
論文 参考訳(メタデータ) (2024-01-24T18:49:30Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - An Uncertainty-Informed Framework for Trustworthy Fault Diagnosis in
Safety-Critical Applications [1.988145627448243]
深層学習に基づく予後・健康管理(PHM)の信頼性の低さは、安全に重要な資産におけるその適用を妨げる。
本稿では,障害の診断とOODデータセット検出のための不確実性インフォームドフレームワークを提案する。
提案手法は, 安全クリティカルなアプリケーションにおいて, 未知に対処し, 故障診断の信頼性を高める上で特に有利であることを示す。
論文 参考訳(メタデータ) (2021-10-08T21:24:14Z) - Uncertainty-Aware Training for Cardiac Resynchronisation Therapy
Response Prediction [3.090173647095682]
予測の不確実性の定量化は、そのような解釈可能性を提供し、信頼を促進する1つの方法である。
心臓磁気共鳴画像からの心再同期治療応答予測のためのDLモデルのデータ(アラート的)とモデル(緊急的)の不確かさを定量化する。
我々は、既存のDL画像に基づく分類モデルを再訓練し、正しい予測の信頼性を高めるために使用できる不確実性認識損失関数を予備検討する。
論文 参考訳(メタデータ) (2021-09-22T10:37:50Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。