論文の概要: FROSS: Faster-than-Real-Time Online 3D Semantic Scene Graph Generation from RGB-D Images
- arxiv url: http://arxiv.org/abs/2507.19993v2
- Date: Sun, 10 Aug 2025 10:36:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.383499
- Title: FROSS: Faster-than-Real-Time Online 3D Semantic Scene Graph Generation from RGB-D Images
- Title(参考訳): FROSS:RGB-D画像によるリアルタイムオンライン3Dセマンティックシーングラフ生成
- Authors: Hao-Yu Hou, Chun-Yi Lee, Motoharu Sonogashira, Yasutomo Kawanishi,
- Abstract要約: 本稿では,オンラインで高速な3D SSG生成技術であるFROSS(Faster-than-Real-Time Online 3D Semantic Scene Graph Generation)を提案する。
このフレームワークは、正確で計算集約的なポイントクラウド処理への依存を取り除く。
実験により、FROSSは従来の3次元生成法よりもはるかに高速に動作しながら、優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 8.271449021226417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to abstract complex 3D environments into simplified and structured representations is crucial across various domains. 3D semantic scene graphs (SSGs) achieve this by representing objects as nodes and their interrelationships as edges, facilitating high-level scene understanding. Existing methods for 3D SSG generation, however, face significant challenges, including high computational demands and non-incremental processing that hinder their suitability for real-time open-world applications. To address this issue, we propose FROSS (Faster-than-Real-Time Online 3D Semantic Scene Graph Generation), an innovative approach for online and faster-than-real-time 3D SSG generation that leverages the direct lifting of 2D scene graphs to 3D space and represents objects as 3D Gaussian distributions. This framework eliminates the dependency on precise and computationally-intensive point cloud processing. Furthermore, we extend the Replica dataset with inter-object relationship annotations, creating the ReplicaSSG dataset for comprehensive evaluation of FROSS. The experimental results from evaluations on ReplicaSSG and 3DSSG datasets show that FROSS can achieve superior performance while operating significantly faster than prior 3D SSG generation methods. Our implementation and dataset are publicly available at https://github.com/Howardkhh/FROSS.
- Abstract(参考訳): 複雑な3D環境をシンプルで構造化された表現に抽象化する能力は、様々な領域で不可欠である。
3Dセマンティックシーングラフ(SSG)は、オブジェクトをノードとして表現し、それらの相互関係をエッジとして表現することで、高レベルのシーン理解を容易にする。
しかし、既存の3D SSG生成方法は、高い計算要求や、リアルタイムのオープンワールドアプリケーションに適合しない非インクリメンタルな処理など、重大な課題に直面している。
この問題に対処するため, FROSS (Faster-than-Real-Time Online 3D Semantic Scene Graph Generation) を提案する。
このフレームワークは、正確で計算集約的なポイントクラウド処理への依存を取り除く。
さらに、オブジェクト間関係アノテーションでReplicaデータセットを拡張し、FROSSの包括的な評価のためのReplicaSSGデータセットを作成する。
ReplicaSSG と 3DSSG データセットを用いた実験結果から,FROSS は従来の 3D SSG 生成法よりもはるかに高速に動作し,優れた性能が得られることが示された。
私たちの実装とデータセットはhttps://github.com/Howardkhh/FROSS.comで公開されています。
関連論文リスト
- Easy3D: A Simple Yet Effective Method for 3D Interactive Segmentation [10.2138250640885]
本稿では,ドメイン内およびドメイン外両方のデータセットにおいて,従来の最先端技術を上回る3次元インタラクティブセグメンテーション手法を提案する。
我々の単純なアプローチは、Voxelベースのスパースエンコーダと、暗黙のクリック融合を実装した軽量なトランスフォーマーベースのデコーダを統合する。
提案手法は,ScanNet,ScanNet++,S3DIS,KITTI-360など,ベンチマークデータセットの大幅な改善を示す。
論文 参考訳(メタデータ) (2025-04-15T09:49:51Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - GaussianGraph: 3D Gaussian-based Scene Graph Generation for Open-world Scene Understanding [20.578106363482018]
本稿では,セマンティッククラスタリングとシーングラフ生成を統合し,3DGSに基づくシーン理解を強化する新しいフレームワークを提案する。
本稿では,シーンスケールや特徴分布に動的に対応し,特徴圧縮を回避する"Control-Follow"クラスタリング戦略を提案する。
2次元基礎モデルから抽出したオブジェクト属性と空間関係を統合することでシーン表現を充実させる。
論文 参考訳(メタデータ) (2025-03-06T02:36:59Z) - F3D-Gaus: Feed-forward 3D-aware Generation on ImageNet with Cycle-Aggregative Gaussian Splatting [35.625593119642424]
本稿では,モノケプラーデータセットから3次元認識を一般化する問題に取り組む。
画素整列型ガウススプラッティングに基づく新しいフィードフォワードパイプラインを提案する。
また,学習した3次元表現において,クロスビューの一貫性を強制する自己教師付きサイクル集約的制約を導入する。
論文 参考訳(メタデータ) (2025-01-12T04:44:44Z) - Bootstraping Clustering of Gaussians for View-consistent 3D Scene Understanding [59.51535163599723]
FreeGSは、教師なしセマンティック組み込み3DGSフレームワークで、2Dラベルを必要とせずに、ビュー一貫性のある3Dシーン理解を実現する。
FreeGSは複雑なデータ前処理のワークロードを避けながら、最先端のメソッドと互換性がある。
論文 参考訳(メタデータ) (2024-11-29T08:52:32Z) - Graph and Skipped Transformer: Exploiting Spatial and Temporal Modeling Capacities for Efficient 3D Human Pose Estimation [36.93661496405653]
我々は、簡潔なグラフとSkipped Transformerアーキテクチャを用いて、Transformer-temporal情報を活用するためのグローバルなアプローチを採っている。
具体的には、3Dポーズの段階では、粗粒の体部が展開され、完全なデータ駆動適応モデルが構築される。
実験はHuman3.6M、MPI-INF-3DHP、Human-Evaベンチマークで行われた。
論文 参考訳(メタデータ) (2024-07-03T10:42:09Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。