論文の概要: Camouflaged Object Segmentation with Distraction Mining
- arxiv url: http://arxiv.org/abs/2104.10475v1
- Date: Wed, 21 Apr 2021 11:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:24:46.697323
- Title: Camouflaged Object Segmentation with Distraction Mining
- Title(参考訳): ディトラクションマイニングによるカモフラージュ物体分割
- Authors: Haiyang Mei, Ge-Peng Ji, Ziqi Wei, Xin Yang, Xiaopeng Wei, Deng-Ping
Fan
- Abstract要約: camouflaged object segmentation (cos) は、周囲に「完全に」同化している物体を識別することを目的としている。
本研究では,自然界における捕食の過程を模倣したバイオインスパイアされたPFNet(Placeing and Focus Network)を開発した。
当社のPFNetは、リアルタイム(72 FPS)で動作し、3つの挑戦的なデータセットで18の最先端のモデルを大幅に上回ります。
- 参考スコア(独自算出の注目度): 23.77915054363188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camouflaged object segmentation (COS) aims to identify objects that are
"perfectly" assimilate into their surroundings, which has a wide range of
valuable applications. The key challenge of COS is that there exist high
intrinsic similarities between the candidate objects and noise background. In
this paper, we strive to embrace challenges towards effective and efficient
COS. To this end, we develop a bio-inspired framework, termed Positioning and
Focus Network (PFNet), which mimics the process of predation in nature.
Specifically, our PFNet contains two key modules, i.e., the positioning module
(PM) and the focus module (FM). The PM is designed to mimic the detection
process in predation for positioning the potential target objects from a global
perspective and the FM is then used to perform the identification process in
predation for progressively refining the coarse prediction via focusing on the
ambiguous regions. Notably, in the FM, we develop a novel distraction mining
strategy for distraction discovery and removal, to benefit the performance of
estimation. Extensive experiments demonstrate that our PFNet runs in real-time
(72 FPS) and significantly outperforms 18 cutting-edge models on three
challenging datasets under four standard metrics.
- Abstract(参考訳): カモフラージュされたオブジェクトセグメンテーション(COS)は、「完璧に」周囲に同化しているオブジェクトを識別することを目的としており、様々な価値ある応用がある。
COSの重要な課題は、候補オブジェクトとノイズ背景との間には固有の類似性が高いことである。
本稿では, 効率的かつ効率的なcosに向けた課題を取り組もうとしている。この目的のために我々は, 生物にインスパイアされたフレームワーク, ポジショニング・アンド・フォーカス・ネットワーク (pfnet) を開発し, 自然界における捕食の過程を模倣する。
具体的には、PFNetには2つの重要なモジュール、すなわち位置決めモジュール(PM)とフォーカスモジュール(FM)が含まれている。
PMは、大域的な視点から潜在的対象物を位置決めする捕食における検出過程を模倣し、FMを用いて、不明瞭領域に着目して粗い予測を段階的に洗練する捕食における識別処理を行う。
特にfmでは, 推定性能のメリットを享受するために, 注意散逸発見と除去のための新しい注意散逸マイニング戦略を開発した。
大規模な実験により、我々のPFNetはリアルタイム(72 FPS)で動作し、4つの標準メトリクスの下で3つの挑戦的なデータセット上で18の最先端モデルよりも大幅に優れています。
関連論文リスト
- 3rd Place Solution for MOSE Track in CVPR 2024 PVUW workshop: Complex Video Object Segmentation [63.199793919573295]
ビデオオブジェクト(VOS)はコンピュータビジョンにおいて重要なタスクであり、ビデオフレーム間の背景から前景オブジェクトを区別することに焦点を当てている。
我々の研究はCutieモデルからインスピレーションを得ており、オブジェクトメモリ、メモリフレームの総数、および入力解像度がセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-06T00:56:25Z) - Large receptive field strategy and important feature extraction strategy
in 3D object detection [6.3948571459793975]
本研究は,3次元目標検出における鍵となる課題に焦点を当てた。
3次元畳み込みカーネルの受容領域を拡大する課題に対処するために,動的特徴融合モジュールを導入する。
このモジュールは、3D畳み込みカーネルの受容場を適応的に拡張し、拡張と許容される計算負荷のバランスをとる。
論文 参考訳(メタデータ) (2024-01-22T13:01:28Z) - Frequency Perception Network for Camouflaged Object Detection [51.26386921922031]
周波数領域のセマンティック階層によって駆動される新しい学習可能かつ分離可能な周波数知覚機構を提案する。
ネットワーク全体では、周波数誘導粗い局所化ステージと細部保存の微細局在化ステージを含む2段階モデルを採用している。
提案手法は,既存のモデルと比較して,3つのベンチマークデータセットにおいて競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-17T11:30:46Z) - Object Preserving Siamese Network for Single Object Tracking on Point
Clouds [0.6165605009782557]
本稿では,オブジェクトの整合性を著しく維持し,トラッキング性能を向上できるオブジェクト保存シームスネットワーク(OPSNet)を提案する。
まず、オブジェクトハイライトモジュールは、オブジェクト認識機能を強化し、テンプレートや検索領域から識別的特徴を抽出する。
そして、オブジェクト保存サンプリングは、オブジェクト保存された検索領域のシードを取得するオブジェクト候補を選択し、追跡に寄与しないバックグラウンドポイントをドロップする。
最後に、オブジェクトローカライゼーションネットワークは、オブジェクト保存された検索エリアシードに基づいて、3D BBoxを正確に検出する。
論文 参考訳(メタデータ) (2023-01-28T02:21:31Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - Oriented Feature Alignment for Fine-grained Object Recognition in
High-Resolution Satellite Imagery [1.0635248457021498]
我々は,物体認識の重要な課題を分析し,オブジェクト指向特徴アライメントネットワーク(OFA-Net)を用いて高性能物体認識を実現する。
OFA-Netは、回転したバウンディングボックスリファインメントモジュールを通じて、正確なオブジェクトローカライズを実現する。
提案手法はGaoFenコンペで46.51%のmAPを達成し, ISPRSベンチマークでは43.73%で3位となった。
論文 参考訳(メタデータ) (2021-10-13T10:48:11Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - End-to-End Object Detection with Fully Convolutional Network [71.56728221604158]
エンドツーエンド検出を実現するために,分類のための予測対応ワン・ツー・ワン (POTO) ラベルの割り当てを導入する。
局所領域における畳み込みの判別性を向上させるために, 簡易な3次元maxフィルタ(3dmf)を提案する。
エンドツーエンドのフレームワークは,COCOおよびCrowdHumanデータセット上のNMSを用いて,最先端の多くの検出器と競合する性能を実現する。
論文 参考訳(メタデータ) (2020-12-07T09:14:55Z) - Attention-based Assisted Excitation for Salient Object Detection [3.238929552408813]
脳内の物体に基づく注意から着想を得たCNNの特徴地図におけるアクティベーションの修飾機構を導入する。
脳と同様、私たちはこのアイデアを使って、厳密な物体検出における2つの課題に対処する。
我々は、AlexNet、VGG、ResNetといったエンコーダ部分の異なるアーキテクチャを用いて、U-netモデルにおけるオブジェクトベースの注意を実装する。
論文 参考訳(メタデータ) (2020-03-31T13:33:33Z) - PENet: Object Detection using Points Estimation in Aerial Images [9.33900415971554]
これらの課題に対処するために,新しいネットワーク構造であるポイント推定ネットワーク(PENet)を提案する。
PENetはMask Resampling Module(MRM)を使用して、不均衡なデータセットを増大させ、粗いアンカーフリー検出器(CPEN)で小さなオブジェクトクラスタの中心点を効果的に予測し、微細なアンカーフリー検出器FPENで小さなオブジェクトの正確な位置を特定する。
航空データセット visDrone と UAVDT による実験により,PENet は既存の最先端手法よりも精度の高い結果を得た。
論文 参考訳(メタデータ) (2020-01-22T19:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。