論文の概要: MirrorNet: Bio-Inspired Camouflaged Object Segmentation
- arxiv url: http://arxiv.org/abs/2007.12881v3
- Date: Thu, 11 Mar 2021 04:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:08:17.941963
- Title: MirrorNet: Bio-Inspired Camouflaged Object Segmentation
- Title(参考訳): mirrornet:バイオインスパイアされたcamouflaged object segmentation
- Authors: Jinnan Yan, Trung-Nghia Le, Khanh-Duy Nguyen, Minh-Triet Tran,
Thanh-Toan Do, Tam V. Nguyen
- Abstract要約: 本稿では,カモフラージュされたオブジェクトのセグメント化にインスタンスセグメンテーションとミラーストリームの両方を利用する,MirrorNetという新しいバイオインスピレーションネットワークを提案する。
提案手法は精度が89%向上し,最先端技術よりも優れていた。
- 参考スコア(独自算出の注目度): 38.216215543631485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camouflaged objects are generally difficult to be detected in their natural
environment even for human beings. In this paper, we propose a novel
bio-inspired network, named the MirrorNet, that leverages both instance
segmentation and mirror stream for the camouflaged object segmentation.
Differently from existing networks for segmentation, our proposed network
possesses two segmentation streams: the main stream and the mirror stream
corresponding with the original image and its flipped image, respectively. The
output from the mirror stream is then fused into the main stream's result for
the final camouflage map to boost up the segmentation accuracy. Extensive
experiments conducted on the public CAMO dataset demonstrate the effectiveness
of our proposed network. Our proposed method achieves 89% in accuracy,
outperforming the state-of-the-arts.
Project Page: https://sites.google.com/view/ltnghia/research/camo
- Abstract(参考訳): カモフラージュされた物体は一般に、人間であっても自然環境において検出することが困難である。
本稿では,カモフラージュされたオブジェクトセグメンテーションにインスタンスセグメンテーションとミラーストリームの両方を活用する,MirrorNetという新しいバイオインスピレーションネットワークを提案する。
従来のセグメンテーション用ネットワークとは異なり,提案手法ではメインストリームとミラーストリームの2つのセグメンテーションストリームを有する。
ミラーストリームからの出力は、最終的なカモフラージュマップのメインストリームの結果に融合され、セグメンテーション精度が向上する。
パブリックCAMOデータセットを用いて大規模な実験を行い,提案手法の有効性を実証した。
提案手法は89%の精度を達成し,最新技術に匹敵する精度を示した。
プロジェクトページ: https://sites.google.com/view/ltnghia/research/camo
関連論文リスト
- SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - COMNet: Co-Occurrent Matching for Weakly Supervised Semantic
Segmentation [13.244183864948848]
我々は,CAMの品質を向上し,オブジェクトの全体に対して注意を払うためにネットワークを強制する,新しいコオカレントマッチングネットワーク(COMNet)を提案する。
具体的には、共通クラスを含むペア画像のマッチングを行い、対応する領域を強化し、単一の画像上にマッチングを構築し、対象領域を横断する意味的特徴を伝達する。
The experiment on the Pascal VOC 2012 and MS-COCO datasets shows our network can effective boost the performance of the baseline model and a new-of-the-art performance。
論文 参考訳(メタデータ) (2023-09-29T03:55:24Z) - Guess What Moves: Unsupervised Video and Image Segmentation by
Anticipating Motion [92.80981308407098]
本稿では,動きに基づくセグメンテーションと外観に基づくセグメンテーションの強みを組み合わせたアプローチを提案する。
本稿では、画像分割ネットワークを監督し、単純な動きパターンを含む可能性のある領域を予測することを提案する。
教師なしのビデオセグメンテーションモードでは、ネットワークは、学習プロセス自体をこれらのビデオをセグメンテーションするアルゴリズムとして使用して、ラベルのないビデオの集合に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-16T17:55:34Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - Anabranch Network for Camouflaged Object Segmentation [23.956327305907585]
本稿では,キャモフラージュ対象分割問題,すなわち所定の画像に対するキャモフラーグ対象分割問題について検討する。
この問題に対処するため,我々は,ベンチマーク目的のカモフラージュされたオブジェクトの画像データセットを新たに提供した。
さらに,分類タスクとセグメント化タスクの両方を活用する,Anabranch Networkと呼ばれる汎用的なエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2021-05-20T01:52:44Z) - A Novel Adaptive Deep Network for Building Footprint Segmentation [0.0]
衛星画像から地図へ変換することで得られる不正確な境界の問題を解くために,Pix2Pixを用いた新しいネットワーク手法を提案する。
本フレームワークは,第1発生器が局所化特徴を抽出し,第2発生器から抽出した境界特徴とマージし,すべての詳細構造エッジを分割する2つの生成器を含む。
提案したネットワークの結果の質を高めるために異なる戦略が実装され、提案ネットワークはセグメント化精度において最先端ネットワークよりも高い性能を示し、全ての評価指標に対する大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-02-27T18:13:48Z) - Bidirectional Multi-scale Attention Networks for Semantic Segmentation
of Oblique UAV Imagery [30.524771772192757]
本稿では、より適応的で効果的な特徴抽出のために、複数スケールの特徴を双方向に融合する新しい双方向多スケールアテンションネットワークを提案する。
当モデルでは,平均和合(mIoU)スコア70.80%でSOTA(State-of-the-art)を達成した。
論文 参考訳(メタデータ) (2021-02-05T11:02:15Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。