論文の概要: FourierLoss: Shape-Aware Loss Function with Fourier Descriptors
- arxiv url: http://arxiv.org/abs/2309.12106v1
- Date: Thu, 21 Sep 2023 14:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 14:56:57.462682
- Title: FourierLoss: Shape-Aware Loss Function with Fourier Descriptors
- Title(参考訳): fourierloss:フーリエディスクリプタを備えた形状認識損失関数
- Authors: Mehmet Bahadir Erden, Selahattin Cansiz, Onur Caki, Haya Khattak,
Durmus Etiz, Melek Cosar Yakar, Kerem Duruer, Berke Barut and Cigdem
Gunduz-Demir
- Abstract要約: この研究は、FourierLossという新しい形状認識損失関数を導入しました。
これは、地上の真実と予測されたセグメンテーションマップの間の形状の相違に依拠し、それらのオブジェクト上で計算されたフーリエ記述子を通し、ネットワークトレーニングにおけるこの相違を罰する。
提案した形状認識損失関数が肝セグメンテーションに有意な有意な有意な成績を示した。
- 参考スコア(独自算出の注目度): 1.5659201748872393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Encoder-decoder networks become a popular choice for various medical image
segmentation tasks. When they are trained with a standard loss function, these
networks are not explicitly enforced to preserve the shape integrity of an
object in an image. However, this ability of the network is important to obtain
more accurate results, especially when there is a low-contrast difference
between the object and its surroundings. In response to this issue, this work
introduces a new shape-aware loss function, which we name FourierLoss. This
loss function relies on quantifying the shape dissimilarity between the ground
truth and the predicted segmentation maps through the Fourier descriptors
calculated on their objects, and penalizing this dissimilarity in network
training. Different than the previous studies, FourierLoss offers an adaptive
loss function with trainable hyperparameters that control the importance of the
level of the shape details that the network is enforced to learn in the
training process. This control is achieved by the proposed adaptive loss update
mechanism, which end-to-end learns the hyperparameters simultaneously with the
network weights by backpropagation. As a result of using this mechanism, the
network can dynamically change its attention from learning the general outline
of an object to learning the details of its contour points, or vice versa, in
different training epochs. Working on 2879 computed tomography images of 93
subjects, our experiments revealed that the proposed adaptive shape-aware loss
function led to statistically significantly better results for liver
segmentation, compared to its counterparts.
- Abstract(参考訳): エンコーダ-デコーダネットワークは、様々な医療画像分割タスクで一般的な選択となっている。
標準的な損失関数でトレーニングされた場合、これらのネットワークは画像中の物体の形状整合性を維持するために明示的に強制されない。
しかし、このネットワークの能力は、特に物体とその周囲に低コントラスト差がある場合、より正確な結果を得るために重要である。
この問題に対して、この研究は新しい形状認識損失関数を導入し、FourierLossと名付けました。
この損失関数は、それらの対象に計算されたフーリエ記述子を通して、基底真理と予測されたセグメンテーションマップとの形状の相似性を定量化し、ネットワークトレーニングにおいてこの相似性をペナルティ化する。
以前の研究とは異なり、FourierLossはトレーニングプロセスで学習するためにネットワークが強制される形状の詳細のレベルの重要性を制御できるトレーニング可能なハイパーパラメータを備えた適応損失関数を提供する。
この制御は、エンドツーエンドでハイパーパラメータをバックプロパゲーションによってネットワークウェイトと同時に学習するadaptive loss update機構によって実現される。
このメカニズムを用いることで、ネットワークは対象の一般的な概要を学習することから、その輪郭点の詳細を学ぶこと、あるいはその逆を異なる訓練エポックで学習することまで、動的に変更することができる。
被験者93名を対象に2879枚のCT画像を用いて検討した結果, 適応型形状認識損失関数が肝セグメンテーションに有意な有意な有意な成績を示した。
関連論文リスト
- Unraveling the Hessian: A Key to Smooth Convergence in Loss Function Landscapes [0.0]
我々は、完全に連結されたニューラルネットワークにおける損失景観の収束を理論的に解析し、新しいオブジェクトをサンプルに追加する際の損失関数値の差について上限を導出する。
画像分類作業における損失関数面の収束を実証し,これらの結果を様々なデータセットで検証した。
論文 参考訳(メタデータ) (2024-09-18T14:04:15Z) - WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Misalignment-Robust Frequency Distribution Loss for Image Transformation [51.0462138717502]
本稿では,画像強調や超解像といった深層学習に基づく画像変換手法における共通の課題に対処することを目的とする。
本稿では、周波数領域内における分布距離を計算するための、新しいシンプルな周波数分布損失(FDL)を提案する。
本手法は,周波数領域におけるグローバル情報の思慮深い活用により,トレーニング制約として実証的に有効であることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:27:41Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - A Systematic Performance Analysis of Deep Perceptual Loss Networks: Breaking Transfer Learning Conventions [5.470136744581653]
ディープ・パーセプチュアル・ロス(英: Deep Perceptual Los)とは、2つの画像間の誤差をニューラルネットワークから抽出したディープ・特徴間の距離として計算する画像のロス関数の一種である。
本研究は,4つの異なるアプリケーション領域における事前学習損失ネットワークの効果を評価する。
論文 参考訳(メタデータ) (2023-02-08T13:08:51Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Learning sparse features can lead to overfitting in neural networks [9.2104922520782]
機能学習は遅延トレーニングよりもパフォーマンスが良くないことを示す。
空間性は異方性データの学習に不可欠であることが知られているが、対象関数が一定あるいは滑らかな場合に有害である。
論文 参考訳(メタデータ) (2022-06-24T14:26:33Z) - Generic Perceptual Loss for Modeling Structured Output Dependencies [78.59700528239141]
トレーニングされた重みではなく、ネットワーク構造が重要であることを示す。
我々は、出力の構造化依存関係をモデル化するためにランダムに重み付けされたディープcnnが使用できることを実証する。
論文 参考訳(メタデータ) (2021-03-18T23:56:07Z) - Why Do Better Loss Functions Lead to Less Transferable Features? [93.47297944685114]
本稿では,画像ネット上で学習した畳み込みニューラルネットワークの隠れ表現が,学習対象の選択が伝達可能性に与える影響について検討する。
我々は,多くの目的が,バニラソフトマックスのクロスエントロピーよりも画像ネットの精度を統計的に有意に向上させることを示した。
論文 参考訳(メタデータ) (2020-10-30T17:50:31Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。