論文の概要: XNet v2: Fewer Limitations, Better Results and Greater Universality
- arxiv url: http://arxiv.org/abs/2409.00947v1
- Date: Mon, 2 Sep 2024 05:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 08:08:59.652823
- Title: XNet v2: Fewer Limitations, Better Results and Greater Universality
- Title(参考訳): XNet v2: 制限が少なく、結果が良く、より普遍性が高い
- Authors: Yanfeng Zhou, Lingrui Li, Zichen Wang, Guole Liu, Ziwen Liu, Ge Yang,
- Abstract要約: 本稿では,低周波・高周波補完モデルであるXNet v2を提案する。
XNet v2は、ウェーブレットベースの画像レベルの相補的融合を行い、融合結果と3つの異なるサブネットワークを入力して整合性損失を構築する。
XNet v2は、半教師付きセグメンテーションにおける最先端の達成と、完全に教師付き学習の反復的な結果の維持を実現する。
- 参考スコア(独自算出の注目度): 8.284421341320671
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: XNet introduces a wavelet-based X-shaped unified architecture for fully- and semi-supervised biomedical segmentation. So far, however, XNet still faces the limitations, including performance degradation when images lack high-frequency (HF) information, underutilization of raw images and insufficient fusion. To address these issues, we propose XNet v2, a low- and high-frequency complementary model. XNet v2 performs wavelet-based image-level complementary fusion, using fusion results along with raw images inputs three different sub-networks to construct consistency loss. Furthermore, we introduce a feature-level fusion module to enhance the transfer of low-frequency (LF) information and HF information. XNet v2 achieves state-of-the-art in semi-supervised segmentation while maintaining competitve results in fully-supervised learning. More importantly, XNet v2 excels in scenarios where XNet fails. Compared to XNet, XNet v2 exhibits fewer limitations, better results and greater universality. Extensive experiments on three 2D and two 3D datasets demonstrate the effectiveness of XNet v2. Code is available at https://github.com/Yanfeng-Zhou/XNetv2 .
- Abstract(参考訳): XNetはウェーブレットベースのバイオメディカルセグメンテーションのためのX字型統一アーキテクチャを導入している。
しかし、これまでのところXNetは、高周波数(HF)情報がない場合のパフォーマンス低下、生画像の未使用化、核融合の不十分など、その制限に直面している。
これらの問題に対処するため、低周波・高周波補完モデルであるXNet v2を提案する。
XNet v2は、ウェーブレットベースの画像レベルの相補的融合を行い、融合結果と3つの異なるサブネットワークを入力して整合性損失を構築する。
さらに,低周波(LF)情報とHF情報の転送を促進する機能レベルの融合モジュールを導入する。
XNet v2は、半教師付きセグメンテーションにおける最先端の達成と、完全に教師付き学習の反復的な結果の維持を実現する。
さらに重要なのは、XNetが失敗するシナリオにおいて、XNet v2が優れていることだ。
XNetと比較して、XNet v2はより少ない制限、より良い結果、より大きな普遍性を示す。
3つの2Dデータセットと2つの3Dデータセットに関する大規模な実験は、XNet v2の有効性を示している。
コードはhttps://github.com/Yanfeng-Zhou/XNetv2で入手できる。
関連論文リスト
- DDUNet: Dual Dynamic U-Net for Highly-Efficient Cloud Segmentation [9.625982455419306]
クラウドセグメンテーションのためのDual Dynamic U-Net(DDUNet)を提案する。
DDUNetはU-Netアーキテクチャに準拠し、動的マルチスケール畳み込み(DMSC)と動的重みとバイアス発生(DWBG)という2つの重要なモジュールを統合する。
論文 参考訳(メタデータ) (2025-01-26T03:54:14Z) - TransXNet: Learning Both Global and Local Dynamics with a Dual Dynamic
Token Mixer for Visual Recognition [71.6546914957701]
本稿では,グローバルな情報と局所的な詳細を入力依存の方法で集約する軽量なDual Dynamic Token Mixer (D-Mixer)を提案する。
我々は、新しいハイブリッドCNN-TransformerビジョンバックボーンネットワークであるTransXNetを設計するために、基本的なビルディングブロックとしてD-Mixerを使用している。
ImageNet-1Kの画像分類タスクでは、TransXNet-TはSwing-Tを0.3%上回り、計算コストの半分以下である。
論文 参考訳(メタデータ) (2023-10-30T09:35:56Z) - Continuous U-Net: Faster, Greater and Noiseless [2.6163085620813287]
画像セグメンテーションのための新しいネットワークファミリーであるContinuous U-Netを紹介する。
より高速な収束、高ロバスト性、ノイズに対する感度の低下を示す理論的な保証を提供する。
本研究では, 医用画像セグメンテーションベンチマークデータセットにおいて, 既存のU-Netブロックよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-01T17:46:00Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - UXNet: Searching Multi-level Feature Aggregation for 3D Medical Image
Segmentation [34.8581851257193]
本稿では、3次元医用画像分割のための新しいNAS手法であるUXNetを提案する。
UXNetは、エンコーダ-デコーダネットワークのスケールワイズ機能集約戦略とブロックワイズ演算子の両方を検索する。
UXNetが発見したアーキテクチャは、いくつかの公開3D医療画像セグメンテーションベンチマークにおいて、Diceの点で既存の最先端モデルを上回っている。
論文 参考訳(メタデータ) (2020-09-16T06:50:57Z) - Dual Encoder Fusion U-Net (DEFU-Net) for Cross-manufacturer Chest X-ray
Segmentation [10.965529320634326]
Inception Convolutional Neural Networkを用いたChest X線のためのデュアルエンコーダ融合U-Netフレームワークを提案する。
DEFU-Netは、基本的なU-Net、残留U-Net、BCDU-Net、R2U-Net、注意R2U-Netよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-09-11T15:57:44Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z) - HVNet: Hybrid Voxel Network for LiDAR Based 3D Object Detection [15.491551518695209]
我々は、ポイントクラウドに基づく自律運転のための3Dオブジェクト検出のための新しい一段階統合ネットワークであるHybrid Voxel Network(HVNet)を提案する。
近年の研究では、voxel PointNetスタイルの特徴抽出器による2次元のボクセル化が、大規模な3次元シーンの正確かつ効率的な検出につながることが示されている。
HVNetは、リアルタイム推論速度31Hzの既存のすべての手法の中で最高のmAPを達成する。
論文 参考訳(メタデータ) (2020-02-29T05:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。