論文の概要: OpenSUN3D: 1st Workshop Challenge on Open-Vocabulary 3D Scene
Understanding
- arxiv url: http://arxiv.org/abs/2402.15321v1
- Date: Fri, 23 Feb 2024 13:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 14:33:43.043942
- Title: OpenSUN3D: 1st Workshop Challenge on Open-Vocabulary 3D Scene
Understanding
- Title(参考訳): OpenSUN3D: 1st Workshop Challenge on Open-Vocabulary 3D Scene Understanding
- Authors: Francis Engelmann, Ayca Takmaz, Jonas Schult, Elisabetta Fedele,
Johanna Wald, Songyou Peng, Xi Wang, Or Litany, Siyu Tang, Federico Tombari,
Marc Pollefeys, Leonidas Guibas, Hongbo Tian, Chunjie Wang, Xiaosheng Yan,
Bingwen Wang, Xuanyang Zhang, Xiao Liu, Phuc Nguyen, Khoi Nguyen, Anh Tran,
Cuong Pham, Zhening Huang, Xiaoyang Wu, Xi Chen, Hengshuang Zhao, Lei Zhu,
Joan Lasenby
- Abstract要約: 本報告では,ICCV 2023とともに開かれたOpenSUN3D Workshop on Open-Vocabulary 3D Scene Understandingにおける課題の概要を紹介する。
- 参考スコア(独自算出の注目度): 97.64161154647184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report provides an overview of the challenge hosted at the OpenSUN3D
Workshop on Open-Vocabulary 3D Scene Understanding held in conjunction with
ICCV 2023. The goal of this workshop series is to provide a platform for
exploration and discussion of open-vocabulary 3D scene understanding tasks,
including but not limited to segmentation, detection and mapping. We provide an
overview of the challenge hosted at the workshop, present the challenge
dataset, the evaluation methodology, and brief descriptions of the winning
methods. For additional details, please see
https://opensun3d.github.io/index_iccv23.html.
- Abstract(参考訳): 本報告では,ICCV 2023と共同で開かれたOpenSUN3D Workshop on Open-Vocabulary 3D Scene Understandingにおける課題の概要を紹介する。
このワークショップシリーズの目的は、セグメンテーション、検出、マッピングに限らず、オープンな3Dシーン理解タスクの探索と議論のためのプラットフォームを提供することである。
本稿では,ワークショップで開催されている課題の概要,課題データセット,評価手法,優勝方法の簡潔な説明について紹介する。
詳細はhttps://opensun3d.github.io/index_iccv23.htmlを参照。
関連論文リスト
- Semantically-aware Neural Radiance Fields for Visual Scene
Understanding: A Comprehensive Review [26.436253160392123]
視覚的シーン理解における意味的認識型ニューラルレイディアンスフィールド(NeRF)の役割を概観する。
NeRFはシーン内の静止オブジェクトと動的オブジェクトの両方に対して3D表現を正確に推論する。
論文 参考訳(メタデータ) (2024-02-17T00:15:09Z) - OpenMask3D: Open-Vocabulary 3D Instance Segmentation [84.58747201179654]
OpenMask3Dはオープンな3Dインスタンスセグメンテーションのためのゼロショットアプローチである。
私たちのモデルは、CLIPベースの画像埋め込みのマルチビュー融合により、マスクごとの特徴を集約する。
論文 参考訳(メタデータ) (2023-06-23T17:36:44Z) - Weakly Supervised 3D Open-vocabulary Segmentation [104.07740741126119]
学習済み基礎モデルCLIPとDINOを弱教師付きで活用することで,3次元オープン語彙セグメンテーションの課題に取り組む。
我々はCLIPとDINOのオープン語彙多様知識とオブジェクト推論能力をニューラルラディアンス場(NeRF)に蒸留する。
提案手法の特筆すべき点は,基礎モデルや蒸留プロセスに手動セグメンテーションアノテーションを必要としない点である。
論文 参考訳(メタデータ) (2023-05-23T14:16:49Z) - A Simple Framework for Open-Vocabulary Segmentation and Detection [85.21641508535679]
我々は,異なるセグメンテーションと検出データセットから共同で学習する,シンプルなオープン語彙検出フレームワークOpenSeeDを提案する。
まず、事前学習されたテキストエンコーダを導入し、視覚概念を2つのタスクにエンコードし、それらの共通意味空間を学習する。
プレトレーニング後,本モデルでは,セグメンテーションと検出の両方において,競争力あるいは強いゼロショット転送性を示す。
論文 参考訳(メタデータ) (2023-03-14T17:58:34Z) - OpenScene: 3D Scene Understanding with Open Vocabularies [73.1411930820683]
従来の3Dシーン理解アプローチは、単一のタスクのためにモデルをトレーニングするためのラベル付き3Dデータセットに依存している。
私たちは,CLIP機能空間にテキストと画像ピクセルを埋め込んだ3次元シーンポイントの高密度な特徴をモデルが予測する代替手法OpenSceneを提案する。
このゼロショットアプローチは、タスク非依存のトレーニングとオープン語彙クエリを可能にする。
論文 参考訳(メタデータ) (2022-11-28T18:58:36Z) - Comprehensive Visual Question Answering on Point Clouds through
Compositional Scene Manipulation [33.91844305449863]
大規模なVQA-3DデータセットであるCLEVR3Dを提案する。
本研究では,3次元シーングラフ構造を利用した質問エンジンを開発し,多様な推論問題を生成する。
より困難な設定が提案され、背景のバイアスを除去し、コンテキストを常識的なレイアウトから調整する。
論文 参考訳(メタデータ) (2021-12-22T06:43:21Z) - LID 2020: The Learning from Imperfect Data Challenge Results [242.86700551532272]
Imperfect Dataワークショップからの学習は、新しいアプローチの開発に刺激を与え、促進することを目的としている。
我々は、弱教師付き学習環境における最先端のアプローチを見つけるために、3つの課題を編成する。
この技術的レポートは、課題のハイライトを要約している。
論文 参考訳(メタデータ) (2020-10-17T13:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。