論文の概要: Aion: Towards Hierarchical 4D Scene Graphs with Temporal Flow Dynamics
- arxiv url: http://arxiv.org/abs/2512.11903v1
- Date: Wed, 10 Dec 2025 15:13:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.012921
- Title: Aion: Towards Hierarchical 4D Scene Graphs with Temporal Flow Dynamics
- Title(参考訳): Aion: 時流ダイナミクスを備えた階層型4次元シーングラフを目指して
- Authors: Iacopo Catalano, Eduardo Montijano, Javier Civera, Julio A. Placed, Jorge Pena-Queralta,
- Abstract要約: Aionは、時間の流れを階層的な3DSGに直接埋め込むフレームワークである。
AionはグラフベースのスパースMOD表現を用いて任意の時間間隔で動きの流れをキャプチャする。
- 参考スコア(独自算出の注目度): 11.811137192267402
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous navigation in dynamic environments requires spatial representations that capture both semantic structure and temporal evolution. 3D Scene Graphs (3DSGs) provide hierarchical multi-resolution abstractions that encode geometry and semantics, but existing extensions toward dynamics largely focus on individual objects or agents. In parallel, Maps of Dynamics (MoDs) model typical motion patterns and temporal regularities, yet are usually tied to grid-based discretizations that lack semantic awareness and do not scale well to large environments. In this paper we introduce Aion, a framework that embeds temporal flow dynamics directly within a hierarchical 3DSG, effectively incorporating the temporal dimension. Aion employs a graph-based sparse MoD representation to capture motion flows over arbitrary time intervals and attaches them to navigational nodes in the scene graph, yielding more interpretable and scalable predictions that improve planning and interaction in complex dynamic environments.
- Abstract(参考訳): 動的環境における自律的なナビゲーションは、意味的構造と時間的進化の両方を捉える空間的表現を必要とする。
3D Scene Graphs (3DSGs)は、幾何学と意味論をエンコードする階層的な多重解像度の抽象化を提供するが、既存のダイナミックスへの拡張は主に個々のオブジェクトやエージェントに焦点を当てている。
平行して、マップ・オブ・ダイナミクス(英語版)(MoD)は典型的な動きパターンと時間的規則性をモデル化するが、通常、意味的認識を欠いたグリッドベースの離散化に結びついており、大きな環境にうまくスケールしない。
本稿では,時間的次元を効果的に組み込んだ,時間的流れのダイナミックスを階層的な3DSGに直接埋め込むフレームワークであるAionを紹介する。
AionはグラフベースのスパースMOD表現を使用して、任意の時間間隔で動きの流れをキャプチャし、シーングラフ内のナビゲーションノードにアタッチすることで、複雑な動的環境における計画とインタラクションを改善するための、より解釈可能でスケーラブルな予測を提供する。
関連論文リスト
- GGMotion: Group Graph Dynamics-Kinematics Networks for Human Motion Prediction [0.0]
GGMotionはグループグラフのダイナミックス・キネマティクスネットワークで、人間のトポロジをグループでモデル化し、ダイナミックスやキネマティクスの事前利用を改善する。
グループ間およびグループ間相互作用モジュールは、異なるスケールで関節の依存関係をキャプチャするために使用される。
本手法は,短期動作予測において有意な性能差を達成している。
論文 参考訳(メタデータ) (2025-07-10T08:02:01Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z) - DynaVol: Unsupervised Learning for Dynamic Scenes through Object-Centric
Voxelization [67.85434518679382]
幾何学構造と物体中心学習を統一した3次元シーン生成モデルDynaVolを提案する。
鍵となるアイデアは、シーンの3D特性を捉えるために、オブジェクト中心のボキセル化を実行することである。
ボクセルの機能は標準空間の変形関数を通じて時間とともに進化し、グローバルな表現学習の基礎を形成する。
論文 参考訳(メタデータ) (2023-04-30T05:29:28Z) - Dynamic Graph Convolutional Network with Attention Fusion for Traffic
Flow Prediction [10.3426659705376]
本稿では,同期時空間相関をモデル化するための注意融合型動的グラフ畳み込みネットワークを提案する。
我々は、4つの実世界の交通データセットにおいて、我々の手法が18のベースライン法と比較して最先端の性能を上回ることを示す広範な実験を行った。
論文 参考訳(メタデータ) (2023-02-24T12:21:30Z) - A Dynamic Temporal Self-attention Graph Convolutional Network for
Traffic Prediction [7.23135508361981]
本稿では,隣接する行列をトレーニング可能なアテンションスコア行列とする時間自己アテンショングラフ畳み込みネットワーク(DT-SGN)モデルを提案する。
実世界の交通データセット上での最先端モデル駆動モデルとデータ駆動モデルよりも,本手法の方が優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-21T03:51:52Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Spatial-Temporal Graph ODE Networks for Traffic Flow Forecasting [22.421667339552467]
時空間予測は幅広い応用において大きな注目を集めており、交通流予測は標準的で典型的な例である。
既存の研究は通常、浅いグラフ畳み込みネットワーク(GNN)と時間的抽出モジュールを使用して、それぞれ空間的および時間的依存関係をモデル化する。
テンソル型常微分方程式(ODE)を用いて時空間ダイナミクスを捉える時空間グラフ正規微分方程式ネットワーク(STGODE)を提案する。
我々は,複数の実世界の交通データセット上でモデルを評価し,最先端のベースライン上で優れた性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T11:48:45Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。