論文の概要: FusionU-Net: U-Net with Enhanced Skip Connection for Pathology Image
Segmentation
- arxiv url: http://arxiv.org/abs/2310.10951v1
- Date: Tue, 17 Oct 2023 02:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 17:53:38.461435
- Title: FusionU-Net: U-Net with Enhanced Skip Connection for Pathology Image
Segmentation
- Title(参考訳): FusionU-Net: 画像分割のためのスキップ接続を強化したU-Net
- Authors: Zongyi Li, Hongbing Lyu, Jun Wang
- Abstract要約: FusionU-NetはU-Net構造に基づいており、異なるスキップ接続間で情報を交換するためのフュージョンモジュールを備えている。
その結果,FusionU-Netは競合する他の手法よりも優れた性能が得られることがわかった。
- 参考スコア(独自算出の注目度): 9.70345458475663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, U-Net and its variants have been widely used in pathology
image segmentation tasks. One of the key designs of U-Net is the use of skip
connections between the encoder and decoder, which helps to recover detailed
information after upsampling. While most variations of U-Net adopt the original
skip connection design, there is semantic gap between the encoder and decoder
that can negatively impact model performance. Therefore, it is important to
reduce this semantic gap before conducting skip connection. To address this
issue, we propose a new segmentation network called FusionU-Net, which is based
on U-Net structure and incorporates a fusion module to exchange information
between different skip connections to reduce semantic gaps. Unlike the other
fusion modules in existing networks, ours is based on a two-round fusion design
that fully considers the local relevance between adjacent encoder layer outputs
and the need for bi-directional information exchange across multiple layers. We
conducted extensive experiments on multiple pathology image datasets to
evaluate our model and found that FusionU-Net achieves better performance
compared to other competing methods. We argue our fusion module is more
effective than the designs of existing networks, and it could be easily
embedded into other networks to further enhance the model performance.
- Abstract(参考訳): 近年,病的画像分割作業においてU-Netとその変種が広く用いられている。
U-Netの重要な設計の1つは、エンコーダとデコーダの間のスキップ接続を使用することである。
U-Netのほとんどのバリエーションはオリジナルのスキップ接続設計を採用しているが、エンコーダとデコーダの間に意味的なギャップがあり、モデルの性能に悪影響を及ぼす。
したがって、スキップ接続を行う前に、このセマンティックギャップを減らすことが重要である。
そこで本研究では,u-net 構造を基盤とし,異なるスキップ接続間の情報交換を行う fusion モジュールを組み込んだ fusionu-net と呼ばれる新しいセグメントネットワークを提案する。
既存のネットワークにおける他のフュージョンモジュールとは異なり、我々は隣り合うエンコーダ層出力と複数の層間の双方向情報交換の必要性を完全に考慮した2ラウンドのフュージョン設計に基づいている。
本研究では,複数の病理画像データセットを用いた広範囲な実験を行い,fusionu-netが他の競合手法よりも優れた性能を実現することを見出した。
我々の融合モジュールは既存のネットワークの設計よりも効果的であり、モデル性能を高めるために他のネットワークに簡単に組み込むことができると主張している。
関連論文リスト
- Narrowing the semantic gaps in U-Net with learnable skip connections:
The case of medical image segmentation [12.812992773512871]
U-Netにおける3つのセグメンテーションギャップを解決するためにUDTransNetという新しいセグメンテーションフレームワークを提案する。
具体的には、チャネル関係と空間関係を捕捉するデュアルアテンショントランスフォーマー(DAT)モジュールと、DATトークンとデコーダ機能を効果的に接続するデコーダ誘導リカバリアアテンション(DRA)モジュールを提案する。
我々のUDTransNetは、異なる公開データセット上の最先端セグメンテーション手法よりも比較的少ないパラメータで、より高い評価スコアとより細かいセグメンテーション結果を生成する。
論文 参考訳(メタデータ) (2023-12-23T07:39:42Z) - LRRNet: A Novel Representation Learning Guided Fusion Network for
Infrared and Visible Images [98.36300655482196]
我々は,融合タスクを数学的に定式化し,その最適解とそれを実装可能なネットワークアーキテクチャとの接続を確立する。
特に、融合タスクに学習可能な表現アプローチを採用し、融合ネットワークアーキテクチャの構築は学習可能なモデルを生成する最適化アルゴリズムによって導かれる。
この新しいネットワークアーキテクチャに基づいて、赤外線および可視光画像を融合するために、エンドツーエンドの軽量核融合ネットワークを構築する。
論文 参考訳(メタデータ) (2023-04-11T12:11:23Z) - GFNet: Geometric Flow Network for 3D Point Cloud Semantic Segmentation [91.15865862160088]
本稿では,異なるビュー間の幾何対応性を検討するための幾何フローネットワーク (GFNet) を提案する。
具体的には、異なる視点にまたがって補完情報を双方向に整列し、伝播する新しい幾何フローモジュール(GFM)を考案する。
論文 参考訳(メタデータ) (2022-07-06T11:48:08Z) - Encoder Fusion Network with Co-Attention Embedding for Referring Image
Segmentation [87.01669173673288]
本稿では,視覚的エンコーダをマルチモーダルな特徴学習ネットワークに変換するエンコーダ融合ネットワーク(EFN)を提案する。
EFNには、マルチモーダル機能の並列更新を実現するコアテンションメカニズムが組み込まれている。
4つのベンチマークデータセットによる実験結果から,提案手法がポストプロセッシングを伴わずに最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-05T02:27:25Z) - Attentional Feature Fusion [4.265244011052538]
本稿では,一様で汎用的な特徴融合手法を提案する。
我々のモデルは、CIFAR-100とImageNetのデータセットで最先端のネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2020-09-29T15:10:18Z) - Suppress and Balance: A Simple Gated Network for Salient Object
Detection [89.88222217065858]
両問題を同時に解くための単純なゲートネットワーク(GateNet)を提案する。
多レベルゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに最適に送信することができる。
さらに,提案したFold-ASPP操作(Fold-ASPP)に基づくアトラス空間ピラミッドプーリングを用いて,様々なスケールのサリアンオブジェクトを正確に位置決めする。
論文 参考訳(メタデータ) (2020-07-16T02:00:53Z) - BiO-Net: Learning Recurrent Bi-directional Connections for
Encoder-Decoder Architecture [82.64881585566825]
本稿では,新たな双方向O字型ネットワーク(BiO-Net)を提案する。
提案手法は,バニラU-Netおよび他の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2020-07-01T05:07:49Z) - Multi-Scale Boosted Dehazing Network with Dense Feature Fusion [92.92572594942071]
U-Netアーキテクチャに基づくDense Feature Fusionを用いたマルチスケールブーストデハージングネットワークを提案する。
提案モデルでは,ベンチマークデータセットや実世界のハジー画像に対する最先端のアプローチに対して,好意的に機能することを示す。
論文 参考訳(メタデータ) (2020-04-28T09:34:47Z) - CAggNet: Crossing Aggregation Network for Medical Image Segmentation [4.56877715768796]
クロス・アグリゲーション・ネットワーク (CAggNet) は医療画像解析のための新しいセマンティック・セマンティック・セマンティック・セマンティック・セマンティクス・アプローチである。
CAggNetでは、一般的なU-Netの単純なスキップ接続構造は、マルチレベルダウンサンプリング層とアップサンプリング層のアグリゲーションに置き換えられる。
我々はCAggNetを2つの公開医用画像データセットでいくつかの先進的なU-Net法と比較した。
論文 参考訳(メタデータ) (2020-04-16T15:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。