論文の概要: Motion Style Transfer: Modular Low-Rank Adaptation for Deep Motion
Forecasting
- arxiv url: http://arxiv.org/abs/2211.03165v1
- Date: Sun, 6 Nov 2022 16:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:32:59.920709
- Title: Motion Style Transfer: Modular Low-Rank Adaptation for Deep Motion
Forecasting
- Title(参考訳): モーションスタイル転送:深部動作予測のためのモジュール型低ランク適応
- Authors: Parth Kothari, Danya Li, Yuejiang Liu, Alexandre Alahi
- Abstract要約: 本稿では,新しい領域への深部動き予測モデルを効率的に適用するための伝達学習手法を提案する。
エンコーダ全体を更新する従来の微調整アプローチとは異なり、主な考え方は調整可能なパラメータの量を減らすことである。
提案するアダプタ設計であるMoSAは,いくつかの予測ベンチマークにおいて,先行手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 79.56014465244644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep motion forecasting models have achieved great success when trained on a
massive amount of data. Yet, they often perform poorly when training data is
limited. To address this challenge, we propose a transfer learning approach for
efficiently adapting pre-trained forecasting models to new domains, such as
unseen agent types and scene contexts. Unlike the conventional fine-tuning
approach that updates the whole encoder, our main idea is to reduce the amount
of tunable parameters that can precisely account for the target domain-specific
motion style. To this end, we introduce two components that exploit our prior
knowledge of motion style shifts: (i) a low-rank motion style adapter that
projects and adjusts the style features at a low-dimensional bottleneck; and
(ii) a modular adapter strategy that disentangles the features of scene context
and motion history to facilitate a fine-grained choice of adaptation layers.
Through extensive experimentation, we show that our proposed adapter design,
coined MoSA, outperforms prior methods on several forecasting benchmarks.
- Abstract(参考訳): ディープモーション予測モデルは、大量のデータをトレーニングすることで大きな成功を収めています。
しかし、トレーニングデータに制限がある場合、しばしばパフォーマンスが悪くなります。
そこで本研究では,エージェントタイプやシーンコンテキストなど,事前学習された予測モデルを新しい領域に効率的に適応するトランスファー学習手法を提案する。
エンコーダ全体を更新する従来の微調整アプローチとは異なり、主な考え方は、ターゲットとなるドメイン固有の動作スタイルを正確に説明できる調整可能なパラメータの量を減らすことである。
この目的のために、モーションスタイルシフトの事前知識を利用する2つのコンポーネントを紹介します。
(i)低次元ボトルネックでスタイルの特徴を投影・調整する低ランクモーションスタイルアダプタ、及び
(ii)適応層の細かな選択を容易にするために、シーンコンテキストとモーション履歴の特徴を分断するモジュラーアダプタ戦略。
広範囲な実験を通して,提案するアダプタ設計であるMoSAが,いくつかの予測ベンチマークにおいて先行手法より優れていることを示す。
関連論文リスト
- Adjusting Pretrained Backbones for Performativity [34.390793811659556]
本稿では,事前学習したバックボーンをモジュラー方式で演奏性に適応させる新しい手法を提案する。
再学習軌道に沿った損失を減らし、候補モデルの中から効果的に選択し、性能劣化を予測できることを示す。
論文 参考訳(メタデータ) (2024-10-06T14:41:13Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Efficient Adaptation of Large Vision Transformer via Adapter
Re-Composing [8.88477151877883]
高容量事前学習モデルはコンピュータビジョンにおける問題解決に革命をもたらした。
本稿では,効率的な事前学習モデル適応に対処する新しい適応型再コンパイル(ARC)戦略を提案する。
提案手法は適応パラメータの再利用可能性について考察し,パラメータ共有方式を提案する。
論文 参考訳(メタデータ) (2023-10-10T01:04:15Z) - Boost Video Frame Interpolation via Motion Adaptation [73.42573856943923]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを生成することを目的とした課題である。
既存の学習ベースのVFI手法は大きな成功を収めたが、それでも限定的な一般化能力に悩まされている。
テスト時に見えない動作に適応できる新しい最適化ベースのVFI法を提案する。
論文 参考訳(メタデータ) (2023-06-24T10:44:02Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - Dynamic Scale Training for Object Detection [111.33112051962514]
本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
論文 参考訳(メタデータ) (2020-04-26T16:48:17Z) - Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation [43.351728923472464]
One-Shot Unsupervised Domain Adaptationは、適応を学ぶ際に、ラベルなしのターゲットサンプルをひとつだけ利用できると仮定する。
従来の適応手法は、ラベル付けされていないターゲットデータの不足により失敗する傾向にある。
そこで我々は,スタイル転送モジュールとタスク固有モジュールを組み合わせた新しいアドリラルスタイルマイニング手法を提案する。
論文 参考訳(メタデータ) (2020-04-13T16:18:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。