論文の概要: Driving-Signal Aware Full-Body Avatars
- arxiv url: http://arxiv.org/abs/2105.10441v1
- Date: Fri, 21 May 2021 16:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 05:46:05.148309
- Title: Driving-Signal Aware Full-Body Avatars
- Title(参考訳): 運転信号対応フルボディアバター
- Authors: Timur Bagautdinov, Chenglei Wu, Tomas Simon, Fabian Prada, Takaaki
Shiratori, Shih-En Wei, Weipeng Xu, Yaser Sheikh, Jason Saragih
- Abstract要約: そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 49.89791440532946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a learning-based method for building driving-signal aware
full-body avatars. Our model is a conditional variational autoencoder that can
be animated with incomplete driving signals, such as human pose and facial
keypoints, and produces a high-quality representation of human geometry and
view-dependent appearance. The core intuition behind our method is that better
drivability and generalization can be achieved by disentangling the driving
signals and remaining generative factors, which are not available during
animation. To this end, we explicitly account for information deficiency in the
driving signal by introducing a latent space that exclusively captures the
remaining information, thus enabling the imputation of the missing factors
required during full-body animation, while remaining faithful to the driving
signal. We also propose a learnable localized compression for the driving
signal which promotes better generalization, and helps minimize the influence
of global chance-correlations often found in real datasets. For a given driving
signal, the resulting variational model produces a compact space of uncertainty
for missing factors that allows for an imputation strategy best suited to a
particular application. We demonstrate the efficacy of our approach on the
challenging problem of full-body animation for virtual telepresence with
driving signals acquired from minimal sensors placed in the environment and
mounted on a VR-headset.
- Abstract(参考訳): 本稿では,運転信号を認識できる全身アバターを構築するための学習ベース手法を提案する。
我々のモデルは、人間のポーズや顔のキーポイントのような不完全な駆動信号でアニメーションできる条件付き変分オートエンコーダであり、人間の幾何学とビュー依存の外観の高品質な表現を生成する。
提案手法の背景には,アニメーション中に利用できない駆動信号と生成因子を分離することにより,より乾燥性や一般化が達成できる点がある。
この目的のために, 残余情報のみを捕捉する潜在空間を導入することで, 駆動信号に忠実なまま, 全身アニメーション中に必要となる欠落要因の注入を可能にすることにより, 駆動信号における情報不足を明示的に考慮する。
また,実データによく見られる大域的チャンス相関の影響を最小限に抑えるために,より優れた一般化を促進する駆動信号の学習可能な局所圧縮を提案する。
与えられた駆動信号に対して、結果として生じる変動モデルは、特定の応用に最も適した計算戦略を可能にする欠落要因に対する不確実性のコンパクトな空間を生成する。
本研究では,vrヘッドセットに装着した最小センサから取得した駆動信号を用いた仮想テレプレゼンスにおける実物体アニメーションの課題に対して,本手法の有効性を実証する。
関連論文リスト
- Transfer Your Perspective: Controllable 3D Generation from Any Viewpoint in a Driving Scene [56.73568220959019]
共同自動運転(CAV)は有望な方向のようだが、開発のためのデータ収集は簡単ではない。
本研究では,運転シーンにおける異なる視点から現実的な知覚を生み出すことを目的とした,救助支援のための新しいサロゲートを提案する。
シミュレーションされたコラボレーティブデータと実車データを組み合わせた,最初のソリューションを提案する。
論文 参考訳(メタデータ) (2025-02-10T17:07:53Z) - Human-in-the-loop Reasoning For Traffic Sign Detection: Collaborative Approach Yolo With Video-llava [0.0]
本稿では,映像解析と推論を組み合わせる手法を提案する。
ビデオラバの誘導と推論能力により,YOLOの信号検出能力が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-07T14:50:56Z) - Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Transferable and Adaptable Driving Behavior Prediction [34.606012573285554]
本研究では,運転行動に対して高品質で伝達可能で適応可能な予測を生成する階層型フレームワークであるHATNを提案する。
我々は,交差点における実交通データの軌跡予測と,インターActionデータセットからのラウンドアバウンドのタスクにおいて,我々のアルゴリズムを実証する。
論文 参考訳(メタデータ) (2022-02-10T16:46:24Z) - Calibration of Human Driving Behavior and Preference Using Naturalistic
Traffic Data [5.926030548326619]
自然トラフィックデータからドライバの好みを推定するためにモデルをどのように反転させることができるかを示す。
我々のアプローチの際立った利点は、計算負担を大幅に削減することである。
論文 参考訳(メタデータ) (2021-05-05T01:20:03Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Improving Robustness of Learning-based Autonomous Steering Using
Adversarial Images [58.287120077778205]
自動運転用画像入力における学習アルゴリズムw.r.tの堅牢性を解析するためのフレームワークについて紹介する。
感度分析の結果を用いて, 「操縦への学習」 タスクの総合的性能を向上させるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-26T02:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。