論文の概要: Unite-Divide-Unite: Joint Boosting Trunk and Structure for High-accuracy
Dichotomous Image Segmentation
- arxiv url: http://arxiv.org/abs/2307.14052v1
- Date: Wed, 26 Jul 2023 09:04:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 12:58:29.686836
- Title: Unite-Divide-Unite: Joint Boosting Trunk and Structure for High-accuracy
Dichotomous Image Segmentation
- Title(参考訳): Unite-Divide-Unite: 高精度二関節画像分割のためのジョイントブースティングトランクと構造
- Authors: Jialun Pei, Zhangjun Zhou, Yueming Jin, He Tang, Pheng-Ann Heng
- Abstract要約: Dichotomous Image rendering (DIS) は、自然の風景からカテゴリーに依存しない前景の物体をピンポイントすることを目的としている。
本稿では, トランクと構造同定の有効性を高めるために, 相補的特徴を再構成し, 分割的に配置する, UDUN (Unite-Divide-Unite Network) を提案する。
1024*1024入力を用いて、ResNet-18で65.3fpsのリアルタイム推論を可能にする。
- 参考スコア(独自算出の注目度): 48.995367430746086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-accuracy Dichotomous Image Segmentation (DIS) aims to pinpoint
category-agnostic foreground objects from natural scenes. The main challenge
for DIS involves identifying the highly accurate dominant area while rendering
detailed object structure. However, directly using a general encoder-decoder
architecture may result in an oversupply of high-level features and neglect the
shallow spatial information necessary for partitioning meticulous structures.
To fill this gap, we introduce a novel Unite-Divide-Unite Network (UDUN} that
restructures and bipartitely arranges complementary features to simultaneously
boost the effectiveness of trunk and structure identification. The proposed
UDUN proceeds from several strengths. First, a dual-size input feeds into the
shared backbone to produce more holistic and detailed features while keeping
the model lightweight. Second, a simple Divide-and-Conquer Module (DCM) is
proposed to decouple multiscale low- and high-level features into our structure
decoder and trunk decoder to obtain structure and trunk information
respectively. Moreover, we design a Trunk-Structure Aggregation module (TSA) in
our union decoder that performs cascade integration for uniform high-accuracy
segmentation. As a result, UDUN performs favorably against state-of-the-art
competitors in all six evaluation metrics on overall DIS-TE, i.e., achieving
0.772 weighted F-measure and 977 HCE. Using 1024*1024 input, our model enables
real-time inference at 65.3 fps with ResNet-18.
- Abstract(参考訳): high-accuracy dichotomous image segmentation (dis)は、カテゴリーに依存しないフォアグラウンドオブジェクトを自然シーンから特定することを目的としている。
DISの主な課題は、詳細なオブジェクト構造を描画しながら、高度に正確な支配領域を特定することである。
しかし、一般的なエンコーダ-デコーダアーキテクチャを直接使用すると、高レベルの特徴が過剰に供給され、細部構造を分割するのに必要な浅い空間情報が無視される可能性がある。
このギャップを埋めるために、トランクと構造同定の有効性を同時に向上するために、補間的特徴を再構成し、分割的に配置する新しいユニット・ディヴィッド・ユニテ・ネットワーク(UDUN)を導入する。
提案されたUDUNはいくつかの強みから進歩している。
まず、デュアルサイズの入力が共有バックボーンにフィードされ、モデルを軽量に保ちながら、より全体的で詳細な機能を生成する。
第2に、構造デコーダとトランクデコーダにマルチスケールの低レベル特徴と高レベル特徴を分離して、構造情報とトランク情報を取得するための単純なDCMを提案する。
さらに,一様高精度セグメンテーションのためのカスケード統合を行う結合デコーダにおいて,トランク構造アグリゲーションモジュール(TSA)を設計する。
その結果、udunは全6つの評価指標、すなわち0.772の重み付きf-measureと977 hceにおいて最先端の競合相手に対して有利に作用する。
1024*1024入力を用いて、ResNet-18で65.3fpsのリアルタイム推論を可能にする。
関連論文リスト
- BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image
Segmentation [11.986549780782724]
医用画像の正確な分割作業のために,BRAU-Net++ というハイブリッドで効果的な CNN-Transformer ネットワークを提案する。
具体的には、BRAU-Net++は、U字型エンコーダデコーダ構造を設計するために、コアビルディングブロックとしてバイレベルルーティングアテンションを使用する。
提案手法は,そのベースラインであるBRAU-Netを含む,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-01-01T10:49:09Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for
Semi-supervised Polyp Segmentation [52.06525450636897]
大腸癌の早期診断と治療において, 自動ポリープセグメンテーションが重要な役割を担っている。
既存の手法は、完全に教師されたトレーニングに大きく依存しており、大量のラベル付きデータと時間を要するピクセル単位のアノテーションを必要とする。
大腸内視鏡画像からの半教師付きポリープ(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - SUNet: Scale-aware Unified Network for Panoptic Segmentation [25.626882426111198]
様々なスケールのオブジェクト分割の問題を軽減するために,2つの軽量モジュールを提案する。
マルチスケールオブジェクトに適応可能な、エンドツーエンドのスケール対応統一ネットワーク(SUNet)を提案する。
論文 参考訳(メタデータ) (2022-09-07T01:40:41Z) - SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z) - STDC-MA Network for Semantic Segmentation [7.052475502311497]
STDC-MAは、自律運転とインテリジェント交通におけるセマンティックセグメンテーションの要求を満たすために提案されている。
STDC-MAは、小さなオブジェクトのセグメンテーション精度を改善しつつ、STDC-Segネットワークとしてセグメンテーション速度を維持している。
STDC-MAのセグメンテーション結果は、0.5xスケールの入力で76.81% mIOUに達し、STDC-Segよりも3.61%高い。
論文 参考訳(メタデータ) (2022-05-10T02:59:39Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - FBSNet: A Fast Bilateral Symmetrical Network for Real-Time Semantic
Segmentation [23.25851281719734]
リアルタイムセマンティックセグメンテーションのためのFBSNet(Fast Bilateral Symmetrical Network)を提案する。
FBSNetには対称デコーダ構造があり、2つの分岐、意味情報分岐、空間詳細分岐がある。
CityscapesとCamVidの実験結果から、提案したFBSNetは精度と効率のバランスが良いことを示している。
論文 参考訳(メタデータ) (2021-09-02T04:16:39Z) - An Attention-Fused Network for Semantic Segmentation of
Very-High-Resolution Remote Sensing Imagery [26.362854938949923]
注目融合ネットワーク(AFNet)という,新しい畳み込みニューラルネットワークアーキテクチャを提案する。
ISPRS Vaihingen 2DデータセットとISPRS Potsdam 2Dデータセットで、総精度91.7%、平均F1スコア90.96%の最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-10T06:23:27Z) - BiSeNet V2: Bilateral Network with Guided Aggregation for Real-time
Semantic Segmentation [118.46210049742993]
バイラテラル空間ネットワーク(BiSeNet V2)と呼ばれる,速度と精度のトレードオフが良好である効率的なアーキテクチャを提案する。
2,048x1の入力に対して、我々はCityscapesテストセットで72.6%の平均IoUを1つのNVIDIA GeForce 1080 Tiカードで156 FPSで達成した。
論文 参考訳(メタデータ) (2020-04-05T10:26:38Z) - Combining Progressive Rethinking and Collaborative Learning: A Deep
Framework for In-Loop Filtering [67.22506488158707]
再構築されたフレーム内およびフレーム間の品質を改善するために,プログレッシブな再考と協調学習機構を備えたディープネットワークを設計する。
フレーム内情報を用いたPRNは,全イントラ(AI)構成下のHEVCベースラインと比較して平均で9.0%のBDレート低減を実現している。
論文 参考訳(メタデータ) (2020-01-16T05:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。