論文の概要: Continuous U-Net: Faster, Greater and Noiseless
- arxiv url: http://arxiv.org/abs/2302.00626v1
- Date: Wed, 1 Feb 2023 17:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 16:47:33.729919
- Title: Continuous U-Net: Faster, Greater and Noiseless
- Title(参考訳): 連続u-net: より速く、より大きく、ノイズなし
- Authors: Chun-Wun Cheng, Christina Runkel, Lihao Liu, Raymond H Chan,
Carola-Bibiane Sch\"onlieb, Angelica I Aviles-Rivero
- Abstract要約: 画像セグメンテーションのための新しいネットワークファミリーであるContinuous U-Netを紹介する。
より高速な収束、高ロバスト性、ノイズに対する感度の低下を示す理論的な保証を提供する。
本研究では, 医用画像セグメンテーションベンチマークデータセットにおいて, 既存のU-Netブロックよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 2.6163085620813287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image segmentation is a fundamental task in image analysis and clinical
practice. The current state-of-the-art techniques are based on U-shape type
encoder-decoder networks with skip connections, called U-Net. Despite the
powerful performance reported by existing U-Net type networks, they suffer from
several major limitations. Issues include the hard coding of the receptive
field size, compromising the performance and computational cost, as well as the
fact that they do not account for inherent noise in the data. They have
problems associated with discrete layers, and do not offer any theoretical
underpinning. In this work we introduce continuous U-Net, a novel family of
networks for image segmentation. Firstly, continuous U-Net is a continuous deep
neural network that introduces new dynamic blocks modelled by second order
ordinary differential equations. Secondly, we provide theoretical guarantees
for our network demonstrating faster convergence, higher robustness and less
sensitivity to noise. Thirdly, we derive qualitative measures to tailor-made
segmentation tasks. We demonstrate, through extensive numerical and visual
results, that our model outperforms existing U-Net blocks for several medical
image segmentation benchmarking datasets.
- Abstract(参考訳): 画像分割は画像解析と臨床における基本的な課題である。
現在の最先端技術は、U-Netと呼ばれるスキップ接続を持つU-shape型エンコーダデコーダネットワークに基づいている。
既存のU-Netタイプネットワークによって報告された強力なパフォーマンスにもかかわらず、いくつかの大きな制限に悩まされている。
問題には、受信フィールドサイズのハードコーディング、パフォーマンスと計算コストの妥協、データ固有のノイズを考慮しないという事実などが含まれる。
それらは離散層に関連する問題があり、理論的基盤を提供しない。
本研究では,イメージセグメンテーションのための新しいネットワークファミリーである連続U-Netを紹介する。
まず、連続U-Netは2次常微分方程式でモデル化された新しい動的ブロックを導入する連続的なディープニューラルネットワークである。
第2に,より高速な収束,高ロバスト性,ノイズに対する感度の低下を示すネットワークに対する理論的保証を提供する。
第3に,セグメンテーションタスクを調整するための質的尺度を導出する。
本研究では, 医用画像セグメンテーションベンチマークデータセットにおいて, 既存のU-Netブロックよりも優れていることを示す。
関連論文リスト
- PottsMGNet: A Mathematical Explanation of Encoder-Decoder Based Neural
Networks [7.668812831777923]
アルゴリズムの観点から,エンコーダ・デコーダに基づくネットワークアーキテクチャについて検討する。
画像分割には2相ポッツモデルを用いる。
離散的なPottsMGNetはエンコーダ-デコーダベースネットワークと等価であることを示す。
論文 参考訳(メタデータ) (2023-07-18T07:48:48Z) - Image Blind Denoising Using Dual Convolutional Neural Network with Skip
Connection [2.9689285167236603]
我々は、スキップ接続(DCBDNet)を用いた新しい二重畳み込みブラインド復調ネットワークを提案する。
提案するDCBDNetは、雑音推定ネットワークと二重畳み込みニューラルネットワーク(CNN)から構成される。
論文 参考訳(メタデータ) (2023-04-04T08:21:46Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Segmenting two-dimensional structures with strided tensor networks [1.952097552284465]
教師付き画像分割のためのテンソルネットワークの新規な定式化を提案する。
提案モデルはバックプロパゲーションを用いてエンドツーエンドでトレーニング可能である。
評価の結果,ストレートテンソルネットワークはcnnモデルに比べて競争性が高いことがわかった。
論文 参考訳(メタデータ) (2021-02-13T11:06:34Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z) - DoubleU-Net: A Deep Convolutional Neural Network for Medical Image
Segmentation [1.6416058750198184]
DoubleU-Netは2つのU-Netアーキテクチャの組み合わせである。
4つの医用セグメンテーションデータセットを用いてDoubleU-Netを評価した。
論文 参考訳(メタデータ) (2020-06-08T18:38:24Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。