論文の概要: COUCH: Towards Controllable Human-Chair Interactions
- arxiv url: http://arxiv.org/abs/2205.00541v1
- Date: Sun, 1 May 2022 19:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 01:31:17.662663
- Title: COUCH: Towards Controllable Human-Chair Interactions
- Title(参考訳): COUCH: コントロール可能な人間と毛髪のインタラクションを目指して
- Authors: Xiaohan Zhang, Bharat Lal Bhatnagar, Vladimir Guzov, Sebastian Starke,
Gerard Pons-Moll
- Abstract要約: 物体上の異なる接触位置を条件としたシーン相互作用の合成問題について検討する。
手の接触認識制御信号を予測して動きを先導する新しい合成フレームワークCOUCHを提案する。
本手法は,既存の人間と物体の相互作用法に比べて,定量的,定性的な改善を示す。
- 参考スコア(独自算出の注目度): 44.66450508317131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans interact with an object in many different ways by making contact at
different locations, creating a highly complex motion space that can be
difficult to learn, particularly when synthesizing such human interactions in a
controllable manner. Existing works on synthesizing human scene interaction
focus on the high-level control of action but do not consider the fine-grained
control of motion. In this work, we study the problem of synthesizing scene
interactions conditioned on different contact positions on the object. As a
testbed to investigate this new problem, we focus on human-chair interaction as
one of the most common actions which exhibit large variability in terms of
contacts. We propose a novel synthesis framework COUCH that plans ahead the
motion by predicting contact-aware control signals of the hands, which are then
used to synthesize contact-conditioned interactions. Furthermore, we contribute
a large human-chair interaction dataset with clean annotations, the COUCH
Dataset. Our method shows significant quantitative and qualitative improvements
over existing methods for human-object interactions. More importantly, our
method enables control of the motion through user-specified or automatically
predicted contacts.
- Abstract(参考訳): 人間は異なる場所で接触することで様々な方法で物体と相互作用し、特にそのような人間の相互作用を制御可能な方法で合成する際には、学習が難しい非常に複雑な運動空間を作る。
人間のシーンインタラクションを合成する研究は、アクションの高レベルな制御に焦点を当てているが、動きのきめ細かい制御は考慮していない。
本研究では,物体上の異なる接触位置を条件としたシーンインタラクションの合成問題について検討する。
本研究は,この新たな課題を解明するために,接触点における大きな変動を示す最も一般的な行動の一つとして,人間と椅子の相互作用に注目した。
そこで本研究では,手の接触認識制御信号を予測し,接触条件付きインタラクションを合成する新しい合成フレームワークcouchを提案する。
さらに、クリーンアノテーションであるCOUCHデータセットを用いて、大規模なヒューマンチェアインタラクションデータセットをコントリビュートする。
本手法は,既存の人間と物体の相互作用法に比べて,定量的,定性的な改善を示す。
さらに,本手法は,ユーザの特定または自動予測による動作制御を可能にする。
関連論文リスト
- Controllable Human-Object Interaction Synthesis [81.45852197029363]
本稿では,物体の動きと人体の動きを同時に生成するCHOIS(C Controllable Human-Object Interaction Synthesis)を提案する。
我々は、言語記述、初期オブジェクトと人間の状態、およびスパースオブジェクトのウェイポイントが与えられた条件拡散モデルを使用する。
これらの問題を克服するために、生成した物体の動きと入力対象の経路点との整合性を改善するために、追加の監督としてオブジェクト幾何損失を導入する。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - ReMoS: Reactive 3D Motion Synthesis for Two-Person Interactions [71.74348331841057]
本稿では,反応運動合成のための拡散型確率モデルReMoSを紹介する。
本稿では,ペアダンス,忍術,キックボクシング,アクロバティックスなど,多岐にわたる難解な2人シナリオ下でのReMoSの性能を示す。
この結果はインタラクティブなアプリケーションでも利用でき、アニメーターに十分な量の制御を提供する。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - InterControl: Generate Human Motion Interactions by Controlling Every
Joint [63.76228576042726]
各関節のフレキシブルな空間制御を実現するために,InterControlという新しい手法を提案する。
粗い空間制御信号が与えられたコヒーレントでリアルな動きを生成するために、モーション制御ネットを組み込む。
HumanML3DとKIT-MLデータセットの実験は、多目的関節制御におけるその効果を実証している。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Locomotion-Action-Manipulation: Synthesizing Human-Scene Interactions in
Complex 3D Environments [11.87902527509297]
複雑な屋内環境下での自然および可塑性な長期的人間の運動を合成するために,LAMA, Locomotion-Action-Manipulationを提案する。
従来の3Dシーンをスキャンして「ペア化」する手法とは異なり、人間のモーションキャプチャーデータを合成にのみ使用することにより、テスト時間最適化として問題を定式化する。
論文 参考訳(メタデータ) (2023-01-09T18:59:16Z) - Compositional Human-Scene Interaction Synthesis with Semantic Control [16.93177243590465]
高レベルのセマンティック仕様によって制御された所定の3Dシーンと相互作用する人間を合成することを目的としている。
本研究では,3次元人体表面点と3次元物体を共同符号化したトランスフォーマーを用いた新しい生成モデルを設計する。
人間が同時に複数の物体と相互作用できる相互作用の構成的性質に着想を得て、相互作用のセマンティクスを原子間相互作用-対象対の様々な数の合成として定義する。
論文 参考訳(メタデータ) (2022-07-26T11:37:44Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。