論文の概要: HOIDiNi: Human-Object Interaction through Diffusion Noise Optimization
- arxiv url: http://arxiv.org/abs/2506.15625v1
- Date: Wed, 18 Jun 2025 16:54:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.747
- Title: HOIDiNi: Human-Object Interaction through Diffusion Noise Optimization
- Title(参考訳): HOIDiNi:拡散雑音最適化による人間と物体の相互作用
- Authors: Roey Ron, Guy Tevet, Haim Sawdayee, Amit H. Bermano,
- Abstract要約: テキスト駆動拡散フレームワークHOIDiNiについて述べる。
本研究は,テキストプロンプトのみによって駆動される複雑な制御可能なインタラクションを生成する能力を示す。
- 参考スコア(独自算出の注目度): 16.4909071689015
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present HOIDiNi, a text-driven diffusion framework for synthesizing realistic and plausible human-object interaction (HOI). HOI generation is extremely challenging since it induces strict contact accuracies alongside a diverse motion manifold. While current literature trades off between realism and physical correctness, HOIDiNi optimizes directly in the noise space of a pretrained diffusion model using Diffusion Noise Optimization (DNO), achieving both. This is made feasible thanks to our observation that the problem can be separated into two phases: an object-centric phase, primarily making discrete choices of hand-object contact locations, and a human-centric phase that refines the full-body motion to realize this blueprint. This structured approach allows for precise hand-object contact without compromising motion naturalness. Quantitative, qualitative, and subjective evaluations on the GRAB dataset alone clearly indicate HOIDiNi outperforms prior works and baselines in contact accuracy, physical validity, and overall quality. Our results demonstrate the ability to generate complex, controllable interactions, including grasping, placing, and full-body coordination, driven solely by textual prompts. https://hoidini.github.io.
- Abstract(参考訳): 本稿では,テキスト駆動拡散フレームワークHOIDiNiについて述べる。
HOI生成は、多様な運動多様体とともに厳密な接触加速度を誘導するので、非常に難しい。
現在の文献は現実主義と物理的正当性の間を行き来しているが、HOIDiNiは拡散雑音最適化(DNO)を用いて事前学習した拡散モデルの雑音空間を直接最適化し、その両方を達成する。
これは、主に手動接触位置を個別に選択するオブジェクト中心のフェーズと、このブループリントを実現するために全身の動きを洗練させる人間中心のフェーズの2つのフェーズに分割できるという我々の観察により実現可能となった。
この構造的アプローチは、運動の自然性を損なうことなく、正確に手オブジェクトの接触を可能にする。
GRABデータセットの定量的、質的、主観的な評価だけで、HOIDiNiは、接触精度、物理的妥当性、全体的な品質において、以前の作業やベースラインよりも優れていたことを明らかに示している。
本研究は,テキストのプロンプトによってのみ駆動される,把握,配置,全身協調など,複雑な制御可能なインタラクションを生成する能力を示す。
Hoidini.github.io
関連論文リスト
- CoDA: Coordinated Diffusion Noise Optimization for Whole-Body Manipulation of Articulated Objects [14.230098033626744]
人工物体の全身操作は、仮想人間やロボット工学の幅広い応用において、非常に困難な作業である。
本研究では,現実的な全身運動を実現するための新しい拡散雑音最適化フレームワークを提案する。
提案手法は,動作品質と身体的可視性において,既存の手法よりも優れていることを示す広範な実験を行う。
論文 参考訳(メタデータ) (2025-05-27T17:11:50Z) - OOD-HOI: Text-Driven 3D Whole-Body Human-Object Interactions Generation Beyond Training Domains [66.62502882481373]
現在の方法では、身体と手の両方に焦点を合わせ、結束的で現実的な相互作用を生み出す能力を制限する傾向にある。
我々は,OOD-HOIというテキスト駆動型フレームワークを提案する。
提案手法は,初期相互作用ポーズを合成するための二重分岐相互拡散モデルと,予測された接触領域に基づく物理的精度向上のための接触誘導相互作用精製器と,ロバスト性向上のための意味的調整と変形を含む動的適応機構を統合した。
論文 参考訳(メタデータ) (2024-11-27T10:13:35Z) - Gaze-guided Hand-Object Interaction Synthesis: Dataset and Method [61.19028558470065]
本稿では,視線,手,物間相互作用の3次元モデリングを同時に行う最初のデータセットであるGazeHOIを紹介する。
これらの課題に対処するため,GHO-Diffusion という手動物体間相互作用拡散モデルを提案する。
また, GHO拡散のサンプリング段階におけるHOI-Manifold Guidanceを導入し, 生成した動きのきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - HOI-Diff: Text-Driven Synthesis of 3D Human-Object Interactions using Diffusion Models [42.62823339416957]
テキストのプロンプトによって駆動される現実的な3次元物体間相互作用(HOI)を創出する問題に対処する。
まず、入力テキストに条件付けされた人間と物体の両方の動きを生成するための二重分岐拡散モデル(HOI-DM)を開発する。
また,人間と物体の接触領域を予測するためのアベイランス予測拡散モデル(APDM)を開発した。
論文 参考訳(メタデータ) (2023-12-11T17:41:17Z) - InterDiff: Generating 3D Human-Object Interactions with Physics-Informed
Diffusion [29.25063155767897]
本稿では,3次元物体相互作用(HOI)の予測に向けた新しい課題について述べる。
我々のタスクは、様々な形状の動的物体をモデリングし、全身の動きを捉え、物理的に有効な相互作用を確実にする必要があるため、はるかに困難である。
複数の人-物間相互作用データセットを用いた実験は,本手法の有効性を実証し,現実的で,鮮明で,かつ,極めて長期にわたる3D HOI予測を生成できることを示した。
論文 参考訳(メタデータ) (2023-08-31T17:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。