論文の概要: OpenHype: Hyperbolic Embeddings for Hierarchical Open-Vocabulary Radiance Fields
- arxiv url: http://arxiv.org/abs/2510.21441v1
- Date: Fri, 24 Oct 2025 13:17:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.483078
- Title: OpenHype: Hyperbolic Embeddings for Hierarchical Open-Vocabulary Radiance Fields
- Title(参考訳): OpenHype: 階層的なOpen-Vocabulary Radianceフィールドのためのハイパーボリックな埋め込み
- Authors: Lisa Weijler, Sebastian Koch, Fabio Poiesi, Timo Ropinski, Pedro Hermosilla,
- Abstract要約: 連続的な双曲型潜在空間を用いてシーン階層を表現する新しい手法であるOpenHypeを提案する。
双曲幾何学の特性を活用することにより、OpenHypeは自然にマルチスケールな関係を符号化する。
提案手法は,標準ベンチマークにおける最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 25.81679730373062
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modeling the inherent hierarchical structure of 3D objects and 3D scenes is highly desirable, as it enables a more holistic understanding of environments for autonomous agents. Accomplishing this with implicit representations, such as Neural Radiance Fields, remains an unexplored challenge. Existing methods that explicitly model hierarchical structures often face significant limitations: they either require multiple rendering passes to capture embeddings at different levels of granularity, significantly increasing inference time, or rely on predefined, closed-set discrete hierarchies that generalize poorly to the diverse and nuanced structures encountered by agents in the real world. To address these challenges, we propose OpenHype, a novel approach that represents scene hierarchies using a continuous hyperbolic latent space. By leveraging the properties of hyperbolic geometry, OpenHype naturally encodes multi-scale relationships and enables smooth traversal of hierarchies through geodesic paths in latent space. Our method outperforms state-of-the-art approaches on standard benchmarks, demonstrating superior efficiency and adaptability in 3D scene understanding.
- Abstract(参考訳): 3Dオブジェクトと3Dシーンの固有の階層構造をモデル化することは極めて望ましい。
Neural Radiance Fieldsのような暗黙の表現でこれを補完することは、まだ未解決の課題である。
階層構造を明示的にモデル化する既存の方法は、異なるレベルの粒度の埋め込みをキャプチャするために複数のレンダリングパスを必要とするか、推論時間を大幅に増加させるか、あるいは、現実世界でエージェントが遭遇する多様でニュアンスのある構造を一般化する未定義のクローズドセットな離散階層に依存している。
これらの課題に対処するために,連続的な双曲型潜在空間を用いてシーン階層を表現する新しいアプローチであるOpenHypeを提案する。
双曲幾何学の特性を活用することにより、OpenHypeは自然に多スケールの関係を符号化し、潜在空間の測地経路を通して階層の滑らかな移動を可能にする。
提案手法は,3次元シーン理解において,高い効率性と適応性を示すとともに,標準ベンチマークにおける最先端手法よりも優れた性能を示す。
関連論文リスト
- WorldGrow: Generating Infinite 3D World [75.81531067447203]
我々は、無限に拡張可能な3D世界、すなわちコヒーレントな幾何学と現実的な外観を持つ大規模で連続的な環境を生み出すという課題に取り組む。
本研究では,非有界な3次元シーン合成のための階層的フレームワークWorldGrowを提案する。
提案手法は,(1)高品質なシーンブロックを抽出し,シーン生成に適した3D構造化潜在表現を作成するデータキュレーションパイプライン,(2)コンテキスト認識シーン拡張を可能にする3Dブロックインペイント機構,(3)グローバルなレイアウトの妥当性と局所幾何学的/音声的忠実性の両立を保証する粗大かつ微細な生成戦略,の3つのコアコンポーネントを特徴とする。
論文 参考訳(メタデータ) (2025-10-24T17:39:52Z) - Cross-Modal Geometric Hierarchy Fusion: An Implicit-Submap Driven Framework for Resilient 3D Place Recognition [9.411542547451193]
本稿では,密度に依存しない幾何学的推論により3次元位置認識を再定義するフレームワークを提案する。
具体的には、元のシーンポイント雲密度の干渉に免疫する弾性点に基づく暗黙の3次元表現を導入する。
これら2種類の情報を活用することで,鳥眼視と3Dセグメントの両視点から幾何学的情報を融合する記述子を得る。
論文 参考訳(メタデータ) (2025-06-17T07:04:07Z) - Agentic 3D Scene Generation with Spatially Contextualized VLMs [67.31920821192323]
本稿では,複雑な3D環境の生成,理解,編集を可能にする新しいパラダイムを提案する。
我々は,VLMが空間コンテキストから反復的に読み取って更新するエージェント型3Dシーン生成パイプラインを開発した。
その結果,我々のフレームワークは多様かつ困難な入力を処理でき,事前の作業では観測できないような一般化のレベルを達成することができることがわかった。
論文 参考訳(メタデータ) (2025-05-26T15:28:17Z) - Achieving Hyperbolic-Like Expressiveness with Arbitrary Euclidean Regions: A New Approach to Hierarchical Embeddings [9.614222676567385]
本稿では,任意の幾何学的領域を埋め込み表現として用いることを支援するフレキシブルユークリッドフレームワークRegDを提案する。
RegDは、領域間の深さに基づく相似性を導入し、双曲幾何学の重要な性質をエミュレートすることで、双曲的表現性を実現する。
実世界の多様なデータセットに対する実証的な評価は、最先端の手法よりも一貫した性能向上を示す。
論文 参考訳(メタデータ) (2025-01-29T09:44:03Z) - BloomScene: Lightweight Structured 3D Gaussian Splatting for Crossmodal Scene Generation [54.12899218104669]
3Dシーンは非常に複雑な構造を持ち、出力が密度が高く、一貫性があり、必要な全ての構造を含むことを保証する必要がある。
現在の3Dシーン生成法は、事前訓練されたテキスト・画像拡散モデルと単眼深度推定器に依存している。
クロスモーダルシーン生成のための軽量な3次元ガウススプラッティングであるBloomSceneを提案する。
論文 参考訳(メタデータ) (2025-01-15T11:33:34Z) - GOV-NeSF: Generalizable Open-Vocabulary Neural Semantic Fields [50.68719394443926]
Generalizable Open-Vocabulary Neural Semantic Fields (GOV-NeSF)は、オープン語彙意味論による3Dシーンの一般化可能な暗黙的表現を提供する新しいアプローチである。
GOV-NeSFは2次元および3次元のオープン語彙セマンティックセマンティックセグメンテーションにおいて最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-04-01T05:19:50Z) - N2F2: Hierarchical Scene Understanding with Nested Neural Feature Fields [112.02885337510716]
Nested Neural Feature Fields (N2F2)は、階層的な監視を用いて単一機能フィールドを学習する新しいアプローチである。
画像空間の任意のスケールで意味的に意味のある画素群を提供するために、2次元クラス非依存セグメンテーションモデルを利用する。
オープンな3次元セグメンテーションやローカライゼーションといったタスクにおいて,最先端のフィールド蒸留法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-03-16T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。