論文の概要: Social 3D Scene Graphs: Modeling Human Actions and Relations for Interactive Service Robots
- arxiv url: http://arxiv.org/abs/2509.24966v1
- Date: Mon, 29 Sep 2025 16:00:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.110345
- Title: Social 3D Scene Graphs: Modeling Human Actions and Relations for Interactive Service Robots
- Title(参考訳): ソーシャル3Dシーングラフ:対話型サービスロボットのための人間行動と関係のモデル化
- Authors: Ermanno Bartoli, Dennis Rotondi, Buwei He, Patric Jensfelt, Kai O. Arras, Iolanda Leite,
- Abstract要約: ソーシャル3Dシーングラフ(Social 3D Scene Graphs)は、人間、その属性、活動、環境内の関係をローカルとリモートの両方でキャプチャする拡張3Dシーングラフである。
我々の表現は、人間と環境の関係についての人間の行動予測と推論を改善し、社会的に知的なロボットへの道を歩む。
- 参考スコア(独自算出の注目度): 5.8503433899583905
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding how people interact with their surroundings and each other is essential for enabling robots to act in socially compliant and context-aware ways. While 3D Scene Graphs have emerged as a powerful semantic representation for scene understanding, existing approaches largely ignore humans in the scene, also due to the lack of annotated human-environment relationships. Moreover, existing methods typically capture only open-vocabulary relations from single image frames, which limits their ability to model long-range interactions beyond the observed content. We introduce Social 3D Scene Graphs, an augmented 3D Scene Graph representation that captures humans, their attributes, activities and relationships in the environment, both local and remote, using an open-vocabulary framework. Furthermore, we introduce a new benchmark consisting of synthetic environments with comprehensive human-scene relationship annotations and diverse types of queries for evaluating social scene understanding in 3D. The experiments demonstrate that our representation improves human activity prediction and reasoning about human-environment relations, paving the way toward socially intelligent robots.
- Abstract(参考訳): 人々が周囲とどのように相互作用するかを理解することは、ロボットが社会的に適合し、文脈に合った方法で行動できるようにするために不可欠である。
3Dシーングラフはシーン理解のための強力なセマンティック表現として現れてきたが、既存のアプローチは、注釈付き人間環境関係が欠如していることから、シーン内の人間をほとんど無視している。
さらに、既存の手法は通常、単一の画像フレームからのオープン語彙関係のみをキャプチャし、観察されたコンテンツ以外の長距離相互作用をモデル化する能力を制限する。
オープン・ボキャブラリ・フレームワークを用いて,人間,その属性,活動,環境内の関係をキャプチャするソーシャル3Dシーングラフ(Social 3D Scene Graphs)を紹介した。
さらに, 総合的な人間とシーンの関係アノテーションと, ソーシャルシーンの理解を3Dで評価するための多種多様なクエリを備えた, 合成環境による新しいベンチマークを導入する。
実験により,人間の行動予測と人間環境関係の推論が向上し,社会的な知能ロボットへの道が開かれた。
関連論文リスト
- HOIverse: A Synthetic Scene Graph Dataset With Human Object Interactions [9.204149287692598]
HOIverseはシーングラフと人間とオブジェクトの相互作用の交差点における合成データセットである。
対象物と対象物とのパラメトリックな関係を計算した。
我々は、パラメトリックな関係と人間とオブジェクトの相互作用を予測するために、最先端のシーングラフ生成モデルにデータセットをベンチマークする。
論文 参考訳(メタデータ) (2025-06-24T14:00:31Z) - Jointly Understand Your Command and Intention:Reciprocal Co-Evolution between Scene-Aware 3D Human Motion Synthesis and Analysis [80.50342609047091]
シーン認識型テキスト対人間合成は、同じテキスト記述から多様な屋内動作サンプルを生成する。
そこで本研究では,テキスト駆動型シーン特異的なヒューマンモーション生成を3段階に分解するケースドジェネレーション戦略を提案する。
我々は3次元シーンにおけるリアルな人間の動き合成と頑健な人間の動き解析を共同で改善する。
論文 参考訳(メタデータ) (2025-03-01T06:56:58Z) - ZeroHSI: Zero-Shot 4D Human-Scene Interaction by Video Generation [17.438484695828276]
我々は,ゼロショット4次元人間とシーンの相互作用合成を可能にする新しいアプローチであるZeroHSIを提案する。
私たちの重要な洞察は、最先端のビデオ生成モデルから人間とシーンのインタラクションを抽出することです。
ZeroHSIは静的シーンと環境の両方でリアルな人間の動きを動的オブジェクトで合成することができる。
論文 参考訳(メタデータ) (2024-12-24T18:55:38Z) - GenZI: Zero-Shot 3D Human-Scene Interaction Generation [39.9039943099911]
我々は3次元人間とシーンの相互作用を生成するための最初のゼロショットアプローチであるGenZIを提案する。
GenZIの鍵となるのは、大きな視覚言語モデル(VLM)による相互作用先行の蒸留です。
既存の学習ベースのアプローチとは対照的に、GenZIはキャプチャされた3Dインタラクションデータに対する従来のニーズを回避している。
論文 参考訳(メタデータ) (2023-11-29T15:40:11Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z) - Contact-aware Human Motion Forecasting [87.04827994793823]
我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
論文 参考訳(メタデータ) (2022-10-08T07:53:19Z) - Triangular Character Animation Sampling with Motion, Emotion, and
Relation [78.80083186208712]
本稿では,キャラクターの身体の動き,表情,社会的関係を関連づけることで,アニメーションのサンプリングと合成を行う新しい枠組みを提案する。
本手法は,3次元キャラクタアニメーションの自動生成,非プレーヤキャラクタ(NPC)間のインタラクションの合成,バーチャルリアリティ(VR)におけるマシン感情インテリジェンスの向上を支援するアニメーターを提供する。
論文 参考訳(メタデータ) (2022-03-09T18:19:03Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - PLACE: Proximity Learning of Articulation and Contact in 3D Environments [70.50782687884839]
本研究では,人体と周囲の3Dシーンとの近接性をモデル化した新しいインタラクション生成手法PLACEを提案する。
我々の知覚学的研究は、PLACEが実際の人間とシーンの相互作用のリアリズムにアプローチし、最先端の手法を著しく改善することを示している。
論文 参考訳(メタデータ) (2020-08-12T21:00:10Z) - 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places,
Objects, and Humans [27.747241700017728]
動作可能な空間知覚のための統一表現として,3次元ダイナミックシーングラフを提案する。
3D Dynamic Scene Graphsは、計画と意思決定、人間とロボットのインタラクション、長期的な自律性、シーン予測に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-15T00:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。