論文の概要: HyTver: A Novel Loss Function for Longitudinal Multiple Sclerosis Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2508.17639v1
- Date: Mon, 25 Aug 2025 04:01:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.623538
- Title: HyTver: A Novel Loss Function for Longitudinal Multiple Sclerosis Lesion Segmentation
- Title(参考訳): HyTver が有用であった多発性硬化症の1例
- Authors: Dayan Perera, Ting Fung Fung, Vishnu Monn,
- Abstract要約: 我々はHyTverと呼ばれる新しいハイブリッド損失を提案し、他のメトリクスのパフォーマンスを維持しながらセグメンテーション性能を向上する。
我々はDiceスコア0.659を達成すると同時に、距離ベースのメトリクスが他の一般的な関数に匹敵することを保証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Longitudinal Multiple Sclerosis Lesion Segmentation is a particularly challenging problem that involves both input and output imbalance in the data and segmentation. Therefore in order to develop models that are practical, one of the solutions is to develop better loss functions. Most models naively use either Dice loss or Cross-Entropy loss or their combination without too much consideration. However, one must select an appropriate loss function as the imbalance can be mitigated by selecting a proper loss function. In order to solve the imbalance problem, multiple loss functions were proposed that claimed to solve it. They come with problems of their own which include being too computationally complex due to hyperparameters as exponents or having detrimental performance in metrics other than region-based ones. We propose a novel hybrid loss called HyTver that achieves good segmentation performance while maintaining performance in other metrics. We achieve a Dice score of 0.659 while also ensuring that the distance-based metrics are comparable to other popular functions. In addition, we also evaluate the stability of the loss functions when used on a pre- trained model and perform extensive comparisons with other popular loss functions
- Abstract(参考訳): 経時的多発性硬化性病変の分節化は特に困難であり,データと分節の入力不均衡と出力不均衡が関係している。
したがって、実用的なモデルを開発するためには、より良い損失関数を開発する必要がある。
ほとんどのモデルでは、Diceの損失やクロスエントロピーの損失、あるいはそれらの組み合わせを、あまり考慮しすぎずに生かしている。
しかし、適切な損失関数を選択することで不均衡を緩和できるため、適切な損失関数を選択する必要がある。
不均衡問題を解決するために、複数の損失関数が提案され、それが解決された。
それらは、指数としてハイパーパラメーターが原因で計算的に複雑すぎることや、地域ベースの指標以外のメトリクスで有害なパフォーマンスを持つことなど、独自の問題が発生する。
我々はHyTverと呼ばれる新しいハイブリッド損失を提案し、他のメトリクスのパフォーマンスを維持しながらセグメンテーション性能を向上する。
我々はDiceスコア0.659を達成すると同時に、距離ベースのメトリクスが他の一般的な関数に匹敵することを保証する。
また,事前訓練モデルを用いた場合の損失関数の安定性を評価し,他の一般的な損失関数との比較を行った。
関連論文リスト
- ASRL:A robust loss function with potential for development [4.292888620805875]
本稿では, 従来のロバスト損失関数に基づく分割型ロバスト損失関数を提案する。
この損失関数の特徴は、高い堅牢性と幅広い適用性を達成することである。
論文 参考訳(メタデータ) (2025-04-09T14:40:46Z) - AnyLoss: Transforming Classification Metrics into Loss Functions [21.34290540936501]
評価指標は、バイナリ分類タスクにおけるモデルの性能を評価するために使用することができる。
ほとんどのメトリクスは、非微分可能形式の混乱行列から派生しており、直接最適化できる微分可能損失関数を生成することは困難である。
本稿では,任意の混乱行列に基づく計量を,最適化プロセスで利用可能な損失関数 textitAnyLoss に変換する汎用的アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:14:16Z) - Tuned Contrastive Learning [77.67209954169593]
そこで本研究では,TCL(Tuned Contrastive Learning)損失という,新たなコントラスト損失関数を提案する。
TCLはバッチ内の複数の正と負に一般化し、ハードな正とハードな負の勾配応答を調整および改善するためのパラメータを提供する。
我々は、TCLを自己教師付き設定に拡張する方法を示し、それを様々なSOTA自己教師型学習手法と経験的に比較する。
論文 参考訳(メタデータ) (2023-05-18T03:26:37Z) - A Generalized Surface Loss for Reducing the Hausdorff Distance in
Medical Imaging Segmentation [1.2289361708127877]
本研究では,現在の手法よりも望ましい数値特性を持つハウスドルフ測度を最小化する新しい損失関数を提案する。
我々の損失関数は、最先端のnnUNetアーキテクチャを用いてLiTSとBraTSデータセットでテストした場合、他の損失よりも優れています。
論文 参考訳(メタデータ) (2023-02-08T04:01:42Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Hybridised Loss Functions for Improved Neural Network Generalisation [0.0]
損失関数は人工ニューラルネットワーク(ANN)のトレーニングにおいて重要な役割を果たす
クロスエントロピーと合計2乗誤差損失関数は異なるトレーニングダイナミクスをもたらすことが示されている。
エントロピーと和2乗誤差損失関数のハイブリッドは、2つの関数の利点を組み合わせ、その欠点を制限できる。
論文 参考訳(メタデータ) (2022-04-26T11:52:11Z) - Do Lessons from Metric Learning Generalize to Image-Caption Retrieval? [67.45267657995748]
半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
論文 参考訳(メタデータ) (2022-02-14T15:18:00Z) - Asymmetric Loss Functions for Learning with Noisy Labels [82.50250230688388]
そこで本研究では,様々なノイズに対する雑音ラベルによる学習に頑健な,新しい損失関数,すなわちテクスティタ対称損失関数を提案する。
ベンチマークデータセットの実験結果は、非対称損失関数が最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-06-06T12:52:48Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation [56.343646789922545]
そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
論文 参考訳(メタデータ) (2020-10-15T17:59:08Z) - Normalized Loss Functions for Deep Learning with Noisy Labels [39.32101898670049]
一般的に使用されているCross Entropy(CE)損失は,ノイズラベルに対して堅牢ではないことを示す。
アクティブ・パッシブ・ロス(APL)と呼ばれるロバストな損失関数を構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-24T08:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。