論文の概要: COUCH: Towards Controllable Human-Chair Interactions
- arxiv url: http://arxiv.org/abs/2205.00541v1
- Date: Sun, 1 May 2022 19:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 01:31:17.662663
- Title: COUCH: Towards Controllable Human-Chair Interactions
- Title(参考訳): COUCH: コントロール可能な人間と毛髪のインタラクションを目指して
- Authors: Xiaohan Zhang, Bharat Lal Bhatnagar, Vladimir Guzov, Sebastian Starke,
Gerard Pons-Moll
- Abstract要約: 物体上の異なる接触位置を条件としたシーン相互作用の合成問題について検討する。
手の接触認識制御信号を予測して動きを先導する新しい合成フレームワークCOUCHを提案する。
本手法は,既存の人間と物体の相互作用法に比べて,定量的,定性的な改善を示す。
- 参考スコア(独自算出の注目度): 44.66450508317131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans interact with an object in many different ways by making contact at
different locations, creating a highly complex motion space that can be
difficult to learn, particularly when synthesizing such human interactions in a
controllable manner. Existing works on synthesizing human scene interaction
focus on the high-level control of action but do not consider the fine-grained
control of motion. In this work, we study the problem of synthesizing scene
interactions conditioned on different contact positions on the object. As a
testbed to investigate this new problem, we focus on human-chair interaction as
one of the most common actions which exhibit large variability in terms of
contacts. We propose a novel synthesis framework COUCH that plans ahead the
motion by predicting contact-aware control signals of the hands, which are then
used to synthesize contact-conditioned interactions. Furthermore, we contribute
a large human-chair interaction dataset with clean annotations, the COUCH
Dataset. Our method shows significant quantitative and qualitative improvements
over existing methods for human-object interactions. More importantly, our
method enables control of the motion through user-specified or automatically
predicted contacts.
- Abstract(参考訳): 人間は異なる場所で接触することで様々な方法で物体と相互作用し、特にそのような人間の相互作用を制御可能な方法で合成する際には、学習が難しい非常に複雑な運動空間を作る。
人間のシーンインタラクションを合成する研究は、アクションの高レベルな制御に焦点を当てているが、動きのきめ細かい制御は考慮していない。
本研究では,物体上の異なる接触位置を条件としたシーンインタラクションの合成問題について検討する。
本研究は,この新たな課題を解明するために,接触点における大きな変動を示す最も一般的な行動の一つとして,人間と椅子の相互作用に注目した。
そこで本研究では,手の接触認識制御信号を予測し,接触条件付きインタラクションを合成する新しい合成フレームワークcouchを提案する。
さらに、クリーンアノテーションであるCOUCHデータセットを用いて、大規模なヒューマンチェアインタラクションデータセットをコントリビュートする。
本手法は,既存の人間と物体の相互作用法に比べて,定量的,定性的な改善を示す。
さらに,本手法は,ユーザの特定または自動予測による動作制御を可能にする。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Two-Person Interaction Augmentation with Skeleton Priors [16.65884142618145]
本稿では,2体インタラクション運動増強のための新しい深層学習法を提案する。
我々のシステムは比較的少量のデータから効果的に学習でき、骨格サイズが大幅に異なるように一般化できる。
論文 参考訳(メタデータ) (2024-04-08T13:11:57Z) - Controllable Human-Object Interaction Synthesis [77.56877961681462]
本研究では,3次元シーンにおける同期物体の動きと人間の動きを生成するための制御可能な人間-物体相互作用合成(CHOIS)を提案する。
ここでは,高レベルな計画から効果的に抽出できるスタイルや意図を言語記述が通知し,シーン内の動きをグラウンド化する。
我々のモジュールは経路計画モジュールとシームレスに統合され、3D環境における長期的相互作用の生成を可能にします。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Locomotion-Action-Manipulation: Synthesizing Human-Scene Interactions in
Complex 3D Environments [11.87902527509297]
複雑な屋内環境下での自然および可塑性な長期的人間の運動を合成するために,LAMA, Locomotion-Action-Manipulationを提案する。
従来の3Dシーンをスキャンして「ペア化」する手法とは異なり、人間のモーションキャプチャーデータを合成にのみ使用することにより、テスト時間最適化として問題を定式化する。
論文 参考訳(メタデータ) (2023-01-09T18:59:16Z) - Compositional Human-Scene Interaction Synthesis with Semantic Control [16.93177243590465]
高レベルのセマンティック仕様によって制御された所定の3Dシーンと相互作用する人間を合成することを目的としている。
本研究では,3次元人体表面点と3次元物体を共同符号化したトランスフォーマーを用いた新しい生成モデルを設計する。
人間が同時に複数の物体と相互作用できる相互作用の構成的性質に着想を得て、相互作用のセマンティクスを原子間相互作用-対象対の様々な数の合成として定義する。
論文 参考訳(メタデータ) (2022-07-26T11:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。