論文の概要: Source-free Depth for Object Pop-out
- arxiv url: http://arxiv.org/abs/2212.05370v3
- Date: Mon, 25 Sep 2023 05:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 04:21:23.351743
- Title: Source-free Depth for Object Pop-out
- Title(参考訳): オブジェクトポップアップのためのソースフリー深さ
- Authors: Zongwei Wu, Danda Pani Paudel, Deng-Ping Fan, Jingjing Wang, Shuo
Wang, C\'edric Demonceaux, Radu Timofte, Luc Van Gool
- Abstract要約: 現代の学習に基づく手法は、野生での推論による有望な深度マップを提供する。
本研究では,オブジェクトの3次元前の「ポップアウト」を用いて,オブジェクトセグメンテーションの深度推定モデルを適用する。
8つのデータセットに対する我々の実験は、性能と一般化性の両方の観点から、我々の方法の利点を一貫して示している。
- 参考スコア(独自算出の注目度): 113.24407776545652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth cues are known to be useful for visual perception. However, direct
measurement of depth is often impracticable. Fortunately, though, modern
learning-based methods offer promising depth maps by inference in the wild. In
this work, we adapt such depth inference models for object segmentation using
the objects' "pop-out" prior in 3D. The "pop-out" is a simple composition prior
that assumes objects reside on the background surface. Such compositional prior
allows us to reason about objects in the 3D space. More specifically, we adapt
the inferred depth maps such that objects can be localized using only 3D
information. Such separation, however, requires knowledge about contact surface
which we learn using the weak supervision of the segmentation mask. Our
intermediate representation of contact surface, and thereby reasoning about
objects purely in 3D, allows us to better transfer the depth knowledge into
semantics. The proposed adaptation method uses only the depth model without
needing the source data used for training, making the learning process
efficient and practical. Our experiments on eight datasets of two challenging
tasks, namely camouflaged object detection and salient object detection,
consistently demonstrate the benefit of our method in terms of both performance
and generalizability.
- Abstract(参考訳): 奥行きは視覚知覚に有用であることが知られている。
しかし、しばしば深度を直接測定することは不可能である。
しかし幸いなことに、現代の学習ベースの手法は、野放しの推論によって有望な深度マップを提供する。
本研究では,3次元に先行するオブジェクトの「ポップアウト」を用いて,オブジェクトセグメンテーションの深度推定モデルを適用する。
pop-out" は、オブジェクトがバックグラウンド面に存在すると仮定した単純な構成である。
このような合成前もって、3d空間のオブジェクトについて推論できる。
より具体的には、3次元情報のみを用いて物体を局所化できるように、推定深度マップを適応させる。
しかし、そのような分離には、セグメンテーションマスクの弱い監督を用いて学習する接触面に関する知識が必要である。
接触面の中間表現と、3Dで純粋に物体を推論することで、深度知識をよりセマンティクスに伝達することができる。
提案手法は,訓練に使用するソースデータを必要とせず,深度モデルのみを用いて学習プロセスを効率的かつ実用的なものにする。
提案手法は,2つの課題,すなわちcamouflaged object detectionとsalient object detectionの8つのデータセットを対象とした実験により,性能と汎用性の両方において,その利点を一貫して証明した。
関連論文リスト
- OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - 3D Object Aided Self-Supervised Monocular Depth Estimation [5.579605877061333]
本研究では,モノクロ3次元物体検出による動的物体の動きに対処する新しい手法を提案する。
具体的には、まず画像中の3Dオブジェクトを検出し、検出されたオブジェクトのポーズと動的ピクセル間の対応性を構築する。
このようにして、各ピクセルの深さは有意義な幾何学モデルによって学習することができる。
論文 参考訳(メタデータ) (2022-12-04T08:52:33Z) - DID-M3D: Decoupling Instance Depth for Monocular 3D Object Detection [34.01288862240829]
単眼の3D検出は、低コストで設定の単純さのため、コミュニティから多くの注目を集めている。
最も難しいサブタスクは、インスタンスの深さ推定にある。
本稿では,インスタンスの視覚表面深度とインスタンス属性深度の組み合わせにより,インスタンスの深度を再構成する。
論文 参考訳(メタデータ) (2022-07-18T11:49:18Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Predicting Relative Depth between Objects from Semantic Features [2.127049691404299]
2D画像に描かれた物体の3D深度は、そのような特徴の一つです。
この領域における技術の現状は、ステレオ画像データに基づいて訓練された複雑なニューラルネットワークモデルであり、ピクセルごとの深さを予測する。
モノディープスモデルから計算した相対深度に対する相対深度精度の14%の総合的な増加が達成された。
論文 参考訳(メタデータ) (2021-01-12T17:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。