論文の概要: DOMINO: Domain-aware Loss for Deep Learning Calibration
- arxiv url: http://arxiv.org/abs/2302.05142v1
- Date: Fri, 10 Feb 2023 09:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 16:01:14.814463
- Title: DOMINO: Domain-aware Loss for Deep Learning Calibration
- Title(参考訳): DOMINO: ディープラーニング校正のためのドメイン認識損失
- Authors: Skylar E. Stolte, Kyle Volle, Aprinda Indahlastari, Alejandro Albizu,
Adam J. Woods, Kevin Brink, Matthew Hale, and Ruogu Fang
- Abstract要約: 本稿では,ディープラーニングモデルの校正のためのドメイン認識損失関数を提案する。
提案した損失関数は、与えられた対象領域内のクラス間の類似性に基づいてクラスワイズペナルティを適用する。
- 参考スコア(独自算出の注目度): 49.485186880996125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved the state-of-the-art performance across medical
imaging tasks; however, model calibration is often not considered. Uncalibrated
models are potentially dangerous in high-risk applications since the user does
not know when they will fail. Therefore, this paper proposes a novel
domain-aware loss function to calibrate deep learning models. The proposed loss
function applies a class-wise penalty based on the similarity between classes
within a given target domain. Thus, the approach improves the calibration while
also ensuring that the model makes less risky errors even when incorrect. The
code for this software is available at https://github.com/lab-smile/DOMINO.
- Abstract(参考訳): 深層学習は医用画像タスクにおける最先端のパフォーマンスを達成したが、モデル校正は考慮されないことが多い。
ユーザがいつ失敗するかを知らないため、高リスクなアプリケーションでは、非対応モデルは潜在的に危険である。
そこで本稿では,深層学習モデルの校正を行う新しいドメイン認識損失関数を提案する。
提案した損失関数は、与えられた対象領域内のクラス間の類似性に基づいてクラスワイズペナルティを適用する。
このように、アプローチはキャリブレーションを改善し、モデルが誤りであってもリスクの少ないエラーを確実にする。
このソフトウェアのコードはhttps://github.com/lab-smile/DOMINOで入手できる。
関連論文リスト
- Calibrating Deep Neural Network using Euclidean Distance [5.675312975435121]
機械学習では、Focal Lossは、サンプルの分類が難しいことを強調することで、誤分類率を減らすために一般的に使用される。
高校正誤差は予測確率と実際の結果との相違を示し、モデルの信頼性に影響を及ぼす。
本研究では,FCL (Focal Loss) と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-10-23T23:06:50Z) - The Perils of Optimizing Learned Reward Functions: Low Training Error Does Not Guarantee Low Regret [64.04721528586747]
強化学習では、意図したタスクをキャプチャする報酬関数を指定することが非常に難しい。
本稿では,報奨モデルの十分低いテスト誤差が,最悪の場合の後悔を保証できることを数学的に示す。
次に、RLHFのような手法でよく用いられるポリシー正則化手法を用いても、同様の問題が持続することを示す。
論文 参考訳(メタデータ) (2024-06-22T06:43:51Z) - Applying Deep Learning to Calibrate Stochastic Volatility Models [0.0]
我々は、価格バニラヨーロッパオプションに対する微分機械学習(DML)アプローチを開発した。
トレーニングされたニューラルネットワークは、Hestonキャリブレーションの時間を劇的に短縮する。
オーバーフィッティングを減らし、一般化誤差を改善することで、それらの性能を比較する。
論文 参考訳(メタデータ) (2023-09-14T16:38:39Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - DOMINO: Domain-aware Model Calibration in Medical Image Segmentation [51.346121016559024]
現代のディープニューラルネットワークはキャリブレーションが不十分で、信頼性と信頼性を損なう。
本稿では,クラスラベル間のセマンティック・コンフューザビリティと階層的類似性を利用したドメイン認識モデルキャリブレーション手法であるDOMINOを提案する。
その結果,DOMINOを校正したディープニューラルネットワークは,頭部画像分割における非校正モデルや最先端形態計測法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-13T15:31:52Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。