論文の概要: HuTuMotion: Human-Tuned Navigation of Latent Motion Diffusion Models
with Minimal Feedback
- arxiv url: http://arxiv.org/abs/2312.12227v1
- Date: Tue, 19 Dec 2023 15:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:16:02.382704
- Title: HuTuMotion: Human-Tuned Navigation of Latent Motion Diffusion Models
with Minimal Feedback
- Title(参考訳): HuTuMotion:最小のフィードバックを持つ潜在運動拡散モデルの人間によるナビゲーション
- Authors: Gaoge Han, Shaoli Huang, Mingming Gong, Jinglei Tang
- Abstract要約: HuTuMotionは、数発の人間のフィードバックを活用して潜伏運動拡散モデルをナビゲートする、自然な人間の動きを生成する革新的なアプローチである。
以上の結果から, 少ないフィードバックを活用すれば, 広範囲なフィードバックによって達成されたものと同程度の性能が得られることが判明した。
- 参考スコア(独自算出の注目度): 46.744192144648764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce HuTuMotion, an innovative approach for generating natural human
motions that navigates latent motion diffusion models by leveraging few-shot
human feedback. Unlike existing approaches that sample latent variables from a
standard normal prior distribution, our method adapts the prior distribution to
better suit the characteristics of the data, as indicated by human feedback,
thus enhancing the quality of motion generation. Furthermore, our findings
reveal that utilizing few-shot feedback can yield performance levels on par
with those attained through extensive human feedback. This discovery emphasizes
the potential and efficiency of incorporating few-shot human-guided
optimization within latent diffusion models for personalized and style-aware
human motion generation applications. The experimental results show the
significantly superior performance of our method over existing state-of-the-art
approaches.
- Abstract(参考訳): HuTuMotionは自然な人間の動きを生成する革新的な手法で、人間からのわずかなフィードバックを生かして潜伏運動拡散モデルをナビゲートする。
通常の正規分布から潜伏変数をサンプリングする既存の手法とは異なり,本手法は,人間のフィードバックによって示されるように,データ特性に適合するように先行分布を適応させ,運動生成の質を高める。
さらに,この結果から,広範囲な人的フィードバックによって得られたものと同程度の性能を達成できることが判明した。
この発見は、パーソナライズされスタイルを認識できる人間のモーション生成アプリケーションのための潜在拡散モデルに、少数の人間誘導による最適化を組み込む可能性と効率性を強調している。
実験の結果,本手法は既存手法よりも優れた性能を示した。
関連論文リスト
- MotionRL: Align Text-to-Motion Generation to Human Preferences with Multi-Reward Reinforcement Learning [99.09906827676748]
我々は、テキスト・ツー・モーション生成タスクを最適化するために、Multi-Reward Reinforcement Learning(RL)を利用する最初のアプローチであるMotionRLを紹介する。
我々の新しいアプローチは、人間の知覚モデルに関する知識以前の人間の嗜好に基づいて、強化学習を用いて運動生成体を微調整する。
さらに、MotionRLは、テキストのアテンデンス、モーションクオリティ、人間の好みの最適性を近似する、新しい多目的最適化戦略を導入している。
論文 参考訳(メタデータ) (2024-10-09T03:27:14Z) - Bayesian-Optimized One-Step Diffusion Model with Knowledge Distillation for Real-Time 3D Human Motion Prediction [2.402745776249116]
本稿では,知識蒸留とベイズ最適化を用いた1段階多層パーセプトロン(MLP)拡散モデルによる動き予測のトレーニングを提案する。
提案モデルでは,予測速度を大幅に向上し,性能の劣化を伴わないリアルタイム予測を実現している。
論文 参考訳(メタデータ) (2024-09-19T04:36:40Z) - MoManifold: Learning to Measure 3D Human Motion via Decoupled Joint Acceleration Manifolds [20.83684434910106]
我々は、連続した高次元運動空間における可塑性人間の動きをモデル化した、新しい人間の動きであるMoManifoldを提案する。
具体的には、既存の限られた動きデータから人間の力学をモデル化する新しい結合加速法を提案する。
大規模な実験により、MoManifoldはいくつかの下流タスクにおいて既存のSOTAよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-01T15:00:16Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Confronting Reward Overoptimization for Diffusion Models: A Perspective of Inductive and Primacy Biases [76.9127853906115]
拡散モデルと人間の嗜好のギャップを埋めることが、実用的生成への統合に不可欠である。
本稿では,拡散モデルの時間的帰納バイアスを利用したポリシー勾配アルゴリズムTDPO-Rを提案する。
実験の結果,報酬過小評価を緩和する手法が有効であることが示された。
論文 参考訳(メタデータ) (2024-02-13T15:55:41Z) - GazeMoDiff: Gaze-guided Diffusion Model for Stochastic Human Motion Prediction [10.982807572404166]
本稿では、人間の動きを生成するための新しい視線誘導型微分拡散モデルGazeMoを提案する。
提案手法はまず視線エンコーダを用いて視線と運動の特徴を抽出し,その特徴を融合させるグラフアテンションネットワークを用いる。
提案手法は,マルチモーダルな最終誤差の点で,最先端の手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:10:12Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - FABRIC: Personalizing Diffusion Models with Iterative Feedback [0.0]
視覚コンテンツ生成が機械学習によってますます推進される時代において、人間のフィードバックを生成モデルに統合することは、ユーザエクスペリエンスと出力品質を高める重要な機会となる。
FABRICは,広範に普及している拡散モデルに適用可能な学習自由アプローチであり,最も広く使用されているアーキテクチャにおける自己認識層を利用して,フィードバック画像の集合に拡散過程を条件付ける。
本研究では,複数ラウンドの反復的フィードバックに対して,任意のユーザの好みを暗黙的に最適化することで,生成結果が改良されることを示す。
論文 参考訳(メタデータ) (2023-07-19T17:39:39Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - Multi-grained Trajectory Graph Convolutional Networks for
Habit-unrelated Human Motion Prediction [4.070072825448614]
習慣非関連な人間の運動予測のために, マルチグレイングラフ畳み込みネットワークベースの軽量フレームワークを提案する。
左利きの動作を生成するための新しい動き生成法を提案し,人間の習慣に偏りのない動きをより良くモデル化した。
humantemporal3.6m と cmu mocap を含む挑戦的データセットの実験結果は、提案モデルが0.12倍以下のパラメータで最先端を上回っていることを示している。
論文 参考訳(メタデータ) (2020-12-23T09:41:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。