論文の概要: Semantic Enrichment of CAD-Based Industrial Environments via Scene Graphs for Simulation and Reasoning
- arxiv url: http://arxiv.org/abs/2601.06415v1
- Date: Sat, 10 Jan 2026 03:22:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.802475
- Title: Semantic Enrichment of CAD-Based Industrial Environments via Scene Graphs for Simulation and Reasoning
- Title(参考訳): シミュレーションと推論のためのシーングラフによるCADに基づく産業環境のセマンティックエンリッチメント
- Authors: Nathan Pascal Walus, Ranulfo Bezerra, Shotaro Kojima, Tsige Tadesse Alemayoh, Satoshi Tadokoro, Kazunori Ohno,
- Abstract要約: 3次元シーングラフは、LVLM(Large Vision-Language Model)を通して環境を豊かにすることで、意味、空間、機能情報を整理することができる
これは機能的および作用可能な要素の関係を含める基盤として機能し、動的シミュレーションや推論に使用できる。
- 参考スコア(独自算出の注目度): 1.2930503923129208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilizing functional elements in an industrial environment, such as displays and interactive valves, provide effective possibilities for robot training. When preparing simulations for robots or applications that involve high-level scene understanding, the simulation environment must be equally detailed. Although CAD files for such environments deliver an exact description of the geometry and visuals, they usually lack semantic, relational and functional information, thus limiting the simulation and training possibilities. A 3D scene graph can organize semantic, spatial and functional information by enriching the environment through a Large Vision-Language Model (LVLM). In this paper we present an offline approach to creating detailed 3D scene graphs from CAD environments. This will serve as a foundation to include the relations of functional and actionable elements, which then can be used for dynamic simulation and reasoning. Key results of this research include both quantitative results of the generated semantic labels as well as qualitative results of the scene graph, especially in hindsight of pipe structures and identified functional relations. All code, results and the environment will be made available at https://cad-scenegraph.github.io
- Abstract(参考訳): ディスプレイやインタラクティブバルブなどの産業環境における機能的要素を活用することは、ロボットのトレーニングに有効な可能性をもたらす。
高レベルのシーン理解を伴うロボットやアプリケーション向けにシミュレーションを作成する場合、シミュレーション環境は同じように詳細でなければならない。
このような環境のためのCADファイルは、幾何学と視覚の正確な記述を提供するが、通常は意味、関係性、機能的な情報を欠いているため、シミュレーションとトレーニングの可能性は制限される。
3次元シーングラフは、LVLM(Large Vision-Language Model)を通して環境を豊かにすることにより、意味、空間、機能的な情報を整理することができる。
本稿では,CAD環境から詳細な3Dシーングラフを作成するためのオフライン手法を提案する。
これは機能的および作用可能な要素の関係を含める基盤として機能し、動的シミュレーションや推論に使用できる。
本研究の主な成果は、生成したセマンティックラベルの定量的な結果と、シーングラフの質的な結果の両方である。
すべてのコード、結果、環境はhttps://cad-scenegraph.github.ioで公開される。
関連論文リスト
- Hi-Dyna Graph: Hierarchical Dynamic Scene Graph for Robotic Autonomy in Human-Centric Environments [41.80879866951797]
Hi-Dyna Graphは階層的な動的シーングラフアーキテクチャで、永続的なグローバルレイアウトと局所的な動的セマンティクスを統合し、ロボットの自律性を具現化する。
大型言語モデル(LLM)を利用したエージェントを用いて、統一されたグラフを解釈し、遅延タスクトリガーを推論し、ロボットの余裕に基づいて実行可能な命令を生成する。
論文 参考訳(メタデータ) (2025-05-30T03:35:29Z) - Agentic 3D Scene Generation with Spatially Contextualized VLMs [67.31920821192323]
本稿では,複雑な3D環境の生成,理解,編集を可能にする新しいパラダイムを提案する。
我々は,VLMが空間コンテキストから反復的に読み取って更新するエージェント型3Dシーン生成パイプラインを開発した。
その結果,我々のフレームワークは多様かつ困難な入力を処理でき,事前の作業では観測できないような一般化のレベルを達成することができることがわかった。
論文 参考訳(メタデータ) (2025-05-26T15:28:17Z) - DyGEnc: Encoding a Sequence of Textual Scene Graphs to Reason and Answer Questions in Dynamic Scenes [0.0]
我々は新しい方法であるDyGEncを紹介する。
動的グラフ。
本手法は,圧縮時空間構造観察と大規模言語モデルの認知能力を統合する。
DyGEncは、人間とオブジェクトの相互作用の歴史に関する問い合わせに対して、15~25%の差で既存の視覚的手法より優れています。
論文 参考訳(メタデータ) (2025-05-06T14:41:42Z) - Open-Vocabulary Functional 3D Scene Graphs for Real-World Indoor Spaces [113.91791599146786]
本稿では,RGB-D画像から実世界の屋内環境の3次元シーングラフを推定するタスクを紹介する。
オブジェクトの空間的関係に焦点を当てた従来の3Dシーングラフとは異なり、機能的な3Dシーングラフはオブジェクト、インタラクティブな要素、およびそれらの機能的関係をキャプチャする。
我々は,拡張されたSceneFun3Dデータセットと新たに収集されたFunGraph3Dに対して,機能的な3Dシーングラフを付加したアプローチを評価する。
論文 参考訳(メタデータ) (2025-03-24T22:53:19Z) - FunGraph: Functionality Aware 3D Scene Graphs for Language-Prompted Scene Interaction [1.8124328823188356]
本研究の目的は,ロボットが環境と直接対話できる表現を開発することである。
我々は、より細かな解像度でオブジェクトを検出し、保存することに集中し、価格関連部品に焦点をあてる。
現在利用可能な3Dリソースを活用して、2Dデータを生成し、検出器をトレーニングし、標準の3Dシーングラフ生成パイプラインを拡張するために使用します。
論文 参考訳(メタデータ) (2025-03-10T23:13:35Z) - ConceptGraphs: Open-Vocabulary 3D Scene Graphs for Perception and
Planning [125.90002884194838]
ConceptGraphsはオープンな3Dシーン用のグラフ構造化表現である。
2Dファウンデーションモデルを活用し、マルチビューアソシエーションによってアウトプットを3Dに融合することで構築される。
我々は,この表現の有用性を,下流の計画タスクを通じて実証する。
論文 参考訳(メタデータ) (2023-09-28T17:53:38Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z) - 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places,
Objects, and Humans [27.747241700017728]
動作可能な空間知覚のための統一表現として,3次元ダイナミックシーングラフを提案する。
3D Dynamic Scene Graphsは、計画と意思決定、人間とロボットのインタラクション、長期的な自律性、シーン予測に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-15T00:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。