論文の概要: Depth Confidence-aware Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2106.13217v1
- Date: Thu, 24 Jun 2021 17:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 16:44:45.057525
- Title: Depth Confidence-aware Camouflaged Object Detection
- Title(参考訳): 深度信頼度を考慮したカモフラージュ物体検出
- Authors: Jing Zhang, Yunqiu Lv, Mochu Xiang, Aixuan Li, Yuchao Dai, Yiran Zhong
- Abstract要約: 生物学の研究は、深度がカモフラージュされた物体の発見に有用な物体の局在の手がかりとなることを示唆している。
深度情報はカモフラージュされた物体検出には使われていない。
本稿では,既存の単分子深度推定法から事前計算した深度マップを用いた深度誘導型カモフラージュ物体検出ネットワークを提案する。
- 参考スコア(独自算出の注目度): 31.99397550848777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camouflaged object detection (COD) aims to segment camouflaged objects hiding
in the environment, which is challenging due to the similar appearance of
camouflaged objects and their surroundings. Research in biology suggests that
depth can provide useful object localization cues for camouflaged object
discovery, as all the animals have 3D perception ability. However, the depth
information has not been exploited for camouflaged object detection. To explore
the contribution of depth for camouflage detection, we present a depth-guided
camouflaged object detection network with pre-computed depth maps from existing
monocular depth estimation methods. Due to the domain gap between the depth
estimation dataset and our camouflaged object detection dataset, the generated
depth may not be accurate enough to be directly used in our framework. We then
introduce a depth quality assessment module to evaluate the quality of depth
based on the model prediction from both RGB COD branch and RGB-D COD branch.
During training, only high-quality depth is used to update the modal
interaction module for multi-modal learning. During testing, our depth quality
assessment module can effectively determine the contribution of depth and
select the RGB branch or RGB-D branch for camouflage prediction. Extensive
experiments on various camouflaged object detection datasets prove the
effectiveness of our solution in exploring the depth information for
camouflaged object detection. Our code and data is publicly available at:
\url{https://github.com/JingZhang617/RGBD-COD}.
- Abstract(参考訳): カモフラージュされた物体検出(COD)は、カモフラージュされた物体を環境中に隠蔽することを目的としている。
生物学の研究によると、深度は、すべての動物が3D知覚能力を持つため、カモフラージュされた物体発見に有用な物体の局所化手段を提供する可能性がある。
しかし、深度情報はカモフラージュされた物体検出に利用されていない。
そこで本研究では,既存の単眼深度推定法から予め計算した深度マップを用いた深度誘導型物体検出ネットワークを提案する。
深度推定データセットとキャモフラージュしたオブジェクト検出データセットのドメインギャップのため、生成した深度は我々のフレームワークで直接使用されるほど正確ではないかもしれない。
次に,rgb codブランチおよびrgb-d codブランチからのモデル予測に基づいて深さ品質を評価する奥行き品質評価モジュールを提案する。
トレーニング中は、マルチモーダル学習のためのモーダル相互作用モジュールを更新するために、高品質な深度のみを使用する。
テスト中, 深度評価モジュールは, 奥行きの寄与を効果的に判定し, 迷彩予測のためのRGBブランチまたはRGB-Dブランチを選択する。
様々なカモフラージュ物体検出データセットに関する広範囲な実験により,カモフラージュ物体検出の奥行き情報探索におけるソリューションの有効性が証明された。
私たちのコードとデータは、 \url{https://github.com/jingzhang617/rgbd-cod} で公開されている。
関連論文リスト
- OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - Depth Awakens: A Depth-perceptual Attention Fusion Network for RGB-D Camouflaged Object Detection [1.0535324143528204]
既存のCODモデルは、視覚システムが本物の3D環境内で動作するという事実を見落としている。
本稿では,深度マップを補助入力として利用する新しい深度知覚注意融合ネットワークを提案する。
ネットワークはトリデントブランチエンコーダを使用して、色情報と深度情報とその通信を抽出する。
論文 参考訳(メタデータ) (2024-05-09T08:17:43Z) - Camouflaged Image Synthesis Is All You Need to Boost Camouflaged
Detection [65.8867003376637]
本研究では,カモフラージュデータの合成フレームワークを提案する。
提案手法では,既存の物体検出モデルのトレーニングに使用可能な,現実的なカモフラージュ画像の生成に生成モデルを用いる。
我々のフレームワークは3つのデータセット上で最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-08-13T06:55:05Z) - Boosting Monocular 3D Object Detection with Object-Centric Auxiliary
Depth Supervision [13.593246617391266]
本稿では,RGB画像に基づく3D検出器を,深度推定タスクに類似した深度予測損失で共同でトレーニングすることにより,RGB画像に基づく3D検出器の強化手法を提案する。
新たな物体中心深度予測損失は,3次元物体検出において重要な前景物体周辺の深度に焦点をあてる。
我々の深度回帰モデルは、物体の3次元信頼度を表すために、深度の不確かさを予測するためにさらに訓練される。
論文 参考訳(メタデータ) (2022-10-29T11:32:28Z) - Towards Deeper Understanding of Camouflaged Object Detection [64.81987999832032]
バイナリセグメンテーション設定は、カモフラージュの概念を完全に理解できない。
そこで本研究では,カモフラージュされたオブジェクトの局所化,セグメント化,ランク付けを同時に行う3段階学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-23T14:26:18Z) - Does depth estimation help object detection? [16.904673709059622]
多くの要因が推定深度を用いた場合の物体検出の性能に影響を及ぼす。
そこで本研究では, パラメータを著しく少なくしながら, 従来の作業よりもmAPが高い深さの早期連結戦略を提案する。
論文 参考訳(メタデータ) (2022-04-13T17:03:25Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Simultaneously Localize, Segment and Rank the Camouflaged Objects [55.46101599577343]
camouflaged object detectionは、周囲に隠されているcamouflaged objectsを分割することを目的としている。
私たちは、カモフラージュされた物体の目立ちを特定の背景に明確にモデル化することは、カモフラージュと動物の進化をよりよく理解するのに役立つと主張しています。
迷彩オブジェクトを同時にローカライズ、セグメント化、ランク付けする最初のランキングベースのCODネットワーク(Rank-Net)を紹介します。
論文 参考訳(メタデータ) (2021-03-06T02:53:36Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。