論文の概要: HyperDet3D: Learning a Scene-conditioned 3D Object Detector
- arxiv url: http://arxiv.org/abs/2204.05599v1
- Date: Tue, 12 Apr 2022 07:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:09:37.555854
- Title: HyperDet3D: Learning a Scene-conditioned 3D Object Detector
- Title(参考訳): hyperdet3d:シーン条件付き3dオブジェクト検出器の学習
- Authors: Yu Zheng, Yueqi Duan, Jiwen Lu, Jie Zhou, Qi Tian
- Abstract要約: 本研究では3次元物体検出のためのシーン条件付き事前知識を探索するためにHyperDet3Dを提案する。
我々のHyperDet3Dは、ScanNetとSUN RGB-Dデータセットの3Dオブジェクト検出ベンチマークで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 154.84798451437032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A bathtub in a library, a sink in an office, a bed in a laundry room -- the
counter-intuition suggests that scene provides important prior knowledge for 3D
object detection, which instructs to eliminate the ambiguous detection of
similar objects. In this paper, we propose HyperDet3D to explore
scene-conditioned prior knowledge for 3D object detection. Existing methods
strive for better representation of local elements and their relations without
scene-conditioned knowledge, which may cause ambiguity merely based on the
understanding of individual points and object candidates. Instead, HyperDet3D
simultaneously learns scene-agnostic embeddings and scene-specific knowledge
through scene-conditioned hypernetworks. More specifically, our HyperDet3D not
only explores the sharable abstracts from various 3D scenes, but also adapts
the detector to the given scene at test time. We propose a discriminative
Multi-head Scene-specific Attention (MSA) module to dynamically control the
layer parameters of the detector conditioned on the fusion of scene-conditioned
knowledge. Our HyperDet3D achieves state-of-the-art results on the 3D object
detection benchmark of the ScanNet and SUN RGB-D datasets. Moreover, through
cross-dataset evaluation, we show the acquired scene-conditioned prior
knowledge still takes effect when facing 3D scenes with domain gap.
- Abstract(参考訳): 図書室の浴槽、オフィスの流し台、洗濯室のベッド 逆直観は、シーンが3dオブジェクトの検出に重要な事前知識を提供することを示唆している。
本稿では,3次元物体検出のためのシーン条件付き事前知識を探索するHyperDet3Dを提案する。
既存の手法では、局所的な要素とその関係をシーン条件の知識を伴わずに表現し、個々の点や対象候補の理解に基づく曖昧さを引き起こすことを目指している。
代わりにHyperDet3Dは、シーン条件のハイパーネットワークを通じて、シーンに依存しない埋め込みとシーン固有の知識を同時に学習する。
より具体的には、HyperDet3Dは様々な3Dシーンのシャーバブルな抽象化を探索するだけでなく、テスト時の特定のシーンに検出器を適応させる。
シーン条件付き知識の融合に基づいて条件付き検出器の層パラメータを動的に制御する識別型マルチヘッドシーン依存モジュールを提案する。
我々のHyperDet3Dは、ScanNetとSUN RGB-Dデータセットの3Dオブジェクト検出ベンチマークで最先端の結果を得る。
さらに、クロスデータセット評価により、取得したシーン条件の事前知識がドメインギャップのある3次元シーンに直面する場合、依然として有効であることを示す。
関連論文リスト
- Chat-Scene: Bridging 3D Scene and Large Language Models with Object Identifiers [65.51132104404051]
オブジェクトレベルのシーンと対話するために、オブジェクト識別子とオブジェクト中心表現を導入する。
我々のモデルは、ScanRefer、Multi3DRefer、Scan2Cap、ScanQA、SQA3Dなど、既存のベンチマーク手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-12-13T14:27:45Z) - Object2Scene: Putting Objects in Context for Open-Vocabulary 3D
Detection [24.871590175483096]
ポイントクラウドベースのオープンボキャブラリ3Dオブジェクト検出は、トレーニングセットに地味なアノテーションを持たない3Dカテゴリを検出することを目的としている。
従来のアプローチでは、3Dとカテゴリのセマンティクスの橋渡しとして、大規模にリッチな注釈付き画像データセットを活用していた。
本研究では,大規模大語彙の3Dオブジェクトデータセットを活用する最初のアプローチであるObject2Sceneを提案し,オープンな3Dオブジェクト検出のために既存の3Dシーンデータセットを拡張する。
論文 参考訳(メタデータ) (2023-09-18T03:31:53Z) - Four Ways to Improve Verbo-visual Fusion for Dense 3D Visual Grounding [56.00186960144545]
3Dビジュアルグラウンドティング(3D visual grounding)は、自然言語で記述された3Dシーンでオブジェクトをローカライズするタスクである。
そこで本研究では,高密度な3次元グラウンドネットワークを提案し,グラウンド性能向上を目的とした4つの新しいスタンドアローンモジュールを提案する。
論文 参考訳(メタデータ) (2023-09-08T19:27:01Z) - Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Point2Seq: Detecting 3D Objects as Sequences [58.63662049729309]
我々は、ポイントクラウドから3次元オブジェクトを検出するためのシンプルで効果的なフレームワーク、Point2Seqを提案する。
我々は,各3Dオブジェクトを単語列とみなし,その3Dオブジェクト検出タスクを,自動回帰的に3Dシーンからの単語の復号化として再構成する。
論文 参考訳(メタデータ) (2022-03-25T00:20:31Z) - Weakly Supervised 3D Object Detection from Point Clouds [27.70180601788613]
3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
論文 参考訳(メタデータ) (2020-07-28T03:30:11Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。