論文の概要: The Dice loss in the context of missing or empty labels: Introducing
$\Phi$ and $\epsilon$
- arxiv url: http://arxiv.org/abs/2207.09521v1
- Date: Tue, 19 Jul 2022 19:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:30:57.032799
- Title: The Dice loss in the context of missing or empty labels: Introducing
$\Phi$ and $\epsilon$
- Title(参考訳): 欠落または空のラベルのコンテキストにおけるDice損失:$\Phi$と$\epsilon$の導入
- Authors: Sofie Tilborghs, Jeroen Bertels, David Robben, Dirk Vandermeulen,
Frederik Maes
- Abstract要約: 欠落したラベルや空白ラベルの存在下でのDice損失の特異な作用を強調した。
還元次元 $Phi$ と滑らかな項 $epsilon$ の選択は非自明であり、その振る舞いに大きな影響を及ぼす。
- 参考スコア(独自算出の注目度): 6.727378735698524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Albeit the Dice loss is one of the dominant loss functions in medical image
segmentation, most research omits a closer look at its derivative, i.e. the
real motor of the optimization when using gradient descent. In this paper, we
highlight the peculiar action of the Dice loss in the presence of missing or
empty labels. First, we formulate a theoretical basis that gives a general
description of the Dice loss and its derivative. It turns out that the choice
of the reduction dimensions $\Phi$ and the smoothing term $\epsilon$ is
non-trivial and greatly influences its behavior. We find and propose heuristic
combinations of $\Phi$ and $\epsilon$ that work in a segmentation setting with
either missing or empty labels. Second, we empirically validate these findings
in a binary and multiclass segmentation setting using two publicly available
datasets. We confirm that the choice of $\Phi$ and $\epsilon$ is indeed
pivotal. With $\Phi$ chosen such that the reductions happen over a single batch
(and class) element and with a negligible $\epsilon$, the Dice loss deals with
missing labels naturally and performs similarly compared to recent adaptations
specific for missing labels. With $\Phi$ chosen such that the reductions happen
over multiple batch elements or with a heuristic value for $\epsilon$, the Dice
loss handles empty labels correctly. We believe that this work highlights some
essential perspectives and hope that it encourages researchers to better
describe their exact implementation of the Dice loss in future work.
- Abstract(参考訳): dice損失は医用画像のセグメンテーションにおいて支配的な損失関数の1つであるが、ほとんどの研究はその導関数、すなわち勾配降下を用いる際の最適化の実際の運動を詳細に観察することを省略している。
本稿では,欠落ラベルや空白ラベルの存在下でのDice損失の特異な作用を強調した。
まず、ダイス損失とその微分の一般的な説明を与える理論的基礎を定式化する。
還元次元 $\Phi$ と滑らかな項 $\epsilon$ の選択は非自明であり、その振る舞いに大きな影響を与える。
我々は、欠落ラベルまたは空ラベルのセグメンテーション設定で動作する$\phi$と$\epsilon$のヒューリスティックな組み合わせを見つけ、提案する。
第二に、これらの知見を2つの公開データセットを用いてバイナリおよびマルチクラスセグメンテーション設定で実証的に検証する。
我々は$\Phi$と$\epsilon$の選択が確かに重要であることを確認した。
1つのバッチ(およびクラス)要素でリダクションが発生し、無視可能な$\epsilon$を持つ$\phi$が選択されると、サイコロロスは、紛失ラベルを自然に処理し、欠落ラベルに特有の最近の適応と同等に実行する。
複数のバッチ要素または$\epsilon$のヒューリスティックな値で還元が行われるように$\phi$が選択されると、diceロスは空のラベルを正しく処理する。
我々は、この研究がいくつかの本質的な視点を強調し、研究者が将来の作業におけるサイコロの損失の正確な実装をより正確に説明することを望んでいると信じている。
関連論文リスト
- Omnipredictors for Regression and the Approximate Rank of Convex
Functions [7.549720420141907]
クラス $mathcal L$ の損失関数とクラス $mathcal C$ の損失予測器は、$mathcal L$ の損失毎に $mathcal C$ の最良の仮説よりも予想される損失が少ない予測器である。
論文 参考訳(メタデータ) (2024-01-26T04:29:53Z) - Active Cost-aware Labeling of Streaming Data [11.501619634838312]
本研究では,アクティブな学習者がデータポイントのストリームに直面するストリーミングデータのラベル付けについて検討する。
まず、データ入力が$K$の離散分布の1つに属し、ラベリングコストと予測誤差をキャプチャする損失によってこの問題を定式化する際の設定について検討する。
ラベル付けコストが$B$の場合、不確実性が時間とコスト依存しきい値よりも大きい場合のラベル付けを選択するアルゴリズムは、最悪の$widetildeO(Bfrac1)上限を達成する。
論文 参考訳(メタデータ) (2023-04-13T20:23:27Z) - Optimal Sketching Bounds for Sparse Linear Regression [116.30196615349226]
我々は、$ell_p$ノルムや広範なヒンジ様損失関数のクラスから、様々な損失関数の下で、$k$スパース線形回帰の難読スケッチを研究する。
スパース$ell$varepsレグレッションの場合、$Theta(klog(d/k)/varepsilon2)$ rowsでスケッチの上に曖昧な分布が存在し、これは定数要素に固執することを示している。
また、$O(mu2 klog(mun d/varepsilon)/varのスケッチも示します。
論文 参考訳(メタデータ) (2023-04-05T07:24:19Z) - DIFF2: Differential Private Optimization via Gradient Differences for
Nonconvex Distributed Learning [58.79085525115987]
以前の研究でよく知られたユーティリティ境界は$widetilde O(d2/3/(nvarepsilon_mathrmDP)4/3)$である。
本稿では,差分プライベートフレームワークを構築した mphDIFF2 (DIFFerential private via DIFFs) という新しい差分プライベートフレームワークを提案する。
大域的な降下を持つ$mphDIFF2は$widetilde O(d2/3/(nvarepsilon_mathrmDP)4/3の効用を達成する
論文 参考訳(メタデータ) (2023-02-08T05:19:01Z) - Sparse Signal Detection in Heteroscedastic Gaussian Sequence Models:
Sharp Minimax Rates [1.0309387309011746]
スパースな代替品に対する信号検出問題を、既知のスパシティ$s$に対して検討する。
ミニマックス分離半径$epsilon*$の上の上限と下限を見つけ、それらが常に一致することを証明する。
以上の結果から,epsilon*$の挙動に関する新たな位相遷移が,Sigma$の疎度レベル,$Lt$メトリック,およびヘテロスセダサシティプロファイル(herescedasticity profile)に現れる。
論文 参考訳(メタデータ) (2022-11-15T23:53:39Z) - Variance-Aware Sparse Linear Bandits [64.70681598741417]
余分な線形包帯に対する最悪のミニマックスは$widetildeThetaleft(sqrtdTright)$である。
ノイズがなく、アクションセットが単位球面である良性設定では、ディビジョン・アンド・コンカーを使用して、$widetildemathcal O(1)$ regretを達成することができる。
我々は,任意の分散対応線形帯域幅アルゴリズムを分散対応線形帯域幅アルゴリズムに変換する汎用フレームワークを開発した。
論文 参考訳(メタデータ) (2022-05-26T15:55:44Z) - Coresets for Classification -- Simplified and Strengthened [19.54307474041768]
損失関数の幅広いクラスを持つ線形分類器を訓練するための相対誤差コアセットを与える。
我々の構成は $tilde O(d cdot mu_y(X)2/epsilon2)$point, where $mu_y(X)$ は mathbbRn times d$ のデータ行列 $X と -1,1n$ のラベルベクトル $y の自然な複雑性測度である。
論文 参考訳(メタデータ) (2021-06-08T11:24:18Z) - Projection-free Graph-based Classifier Learning using Gershgorin Disc
Perfect Alignment [59.87663954467815]
グラフベースのバイナリ学習では、既知のラベルのサブセット$hatx_i$を使って未知のラベルを推論する。
ラベルの$x_i$をバイナリ値に制限する場合、問題はNPハードである。
代わりに線形プログラム(LP)の列を解くことにより,高速なプロジェクションフリー手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T07:22:48Z) - Near-Optimal SQ Lower Bounds for Agnostically Learning Halfspaces and
ReLUs under Gaussian Marginals [49.60752558064027]
ガウス境界の下では、半空間とReLUを不可知的に学習する基本的な問題について検討する。
我々の下限は、これらのタスクの現在の上限が本質的に最良のものであるという強い証拠を与える。
論文 参考訳(メタデータ) (2020-06-29T17:10:10Z) - How isotropic kernels perform on simple invariants [0.5729426778193397]
等方性カーネル手法のトレーニング曲線は、学習すべきタスクの対称性に依存するかを検討する。
大規模な帯域幅では、$beta = fracd-1+xi3d-3+xi$, where $xiin (0,2)$ がカーネルのストライプを原点とする指数であることを示す。
論文 参考訳(メタデータ) (2020-06-17T09:59:18Z) - Agnostic Learning of a Single Neuron with Gradient Descent [92.7662890047311]
期待される正方形損失から、最も適合した単一ニューロンを学習することの問題点を考察する。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
ReLUアクティベーションでは、我々の人口リスク保証は$O(mathsfOPT1/2)+epsilon$である。
論文 参考訳(メタデータ) (2020-05-29T07:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。