論文の概要: Incorporating Exemplar Optimization into Training with Dual Networks for
Human Mesh Recovery
- arxiv url: http://arxiv.org/abs/2401.14121v1
- Date: Thu, 25 Jan 2024 12:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:43:31.162806
- Title: Incorporating Exemplar Optimization into Training with Dual Networks for
Human Mesh Recovery
- Title(参考訳): 人間のメッシュ回復のためのデュアルネットワークによるトレーニングへの模範的最適化の導入
- Authors: Yongwei Nie, Mingxian Fan, Chengjiang Long, Qing Zhang, Jian Zhu,
Xuemiao Xu
- Abstract要約: 単一画像からの新たな最適化に基づくヒューマンメッシュリカバリ手法を提案する。
模範最適化をトレーニングステージに組み込む。
実験により,新しい学習手法が最先端の手法を著しく上回る結果が得られた。
- 参考スコア(独自算出の注目度): 37.233112051529574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel optimization-based human mesh recovery method from a
single image. Given a test exemplar, previous approaches optimize the
pre-trained regression network to minimize the 2D re-projection loss, which
however suffer from over-/under-fitting problems. This is because the
``exemplar optimization'' at testing time has too weak relation to the
pre-training process, and the exemplar optimization loss function is different
from the training loss function. (1) We incorporate exemplar optimization into
the training stage. During training, our method first executes exemplar
optimization and subsequently proceeds with training-time optimization. The
exemplar optimization may run into a wrong direction, while the subsequent
training optimization serves to correct the deviation. Involved in training,
the exemplar optimization learns to adapt its behavior to training data,
thereby acquires generalibility to test exemplars. (2) We devise a dual-network
architecture to convey the novel training paradigm, which is composed of a main
regression network and an auxiliary network, in which we can formulate the
exemplar optimization loss function in the same form as the training loss
function. This further enhances the compatibility between the exemplar and
training optimizations. Experiments demonstrate that our exemplar optimization
after the novel training scheme significantly outperforms state-of-the-art
approaches.
- Abstract(参考訳): 単一画像からの新たな最適化に基づくヒューマンメッシュリカバリ手法を提案する。
従来の手法では、事前訓練された回帰ネットワークを最適化し、2次元の再投射損失を最小限に抑える。
これは、テスト時の `exemplar optimization'' が事前学習プロセスとあまりにも弱い関係にあり、模範最適化損失関数がトレーニング損失関数と異なるためである。
1) 模範最適化を訓練段階に組み込む。
トレーニング中は,まず模範最適化を行い,その後,訓練時間最適化を行う。
模範最適化は間違った方向に進むが、その後の訓練最適化はずれを修正するのに役立つ。
トレーニングにかかわるexemplar optimizationは、その動作をトレーニングデータに適応させることを学習し、exemplarのテストの汎用性を取得する。
2) 主回帰ネットワークと補助ネットワークから構成され, トレーニング損失関数と同一の形式で最適な最適化損失関数を定式化できる, 新たなトレーニングパラダイムを伝達するためのデュアルネットワークアーキテクチャを考案する。
これにより、exemplarとトレーニング最適化の互換性がさらに向上する。
実験により,新しい学習手法が最先端の手法よりも優れていることを示す。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - FREE: Faster and Better Data-Free Meta-Learning [77.90126669914324]
Data-Free Meta-Learning (DFML) は、トレーニング済みモデルのコレクションから、元のデータを必要としない知識を抽出することを目的としている。
i)事前訓練されたモデルからトレーニングタスクを迅速に回復するためのメタジェネレータ,(ii)新しい未知のタスクに一般化するためのメタラーナーを含む、より高速で優れたデータフリーなメタラーニングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-05-02T03:43:19Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [119.70303730341938]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - Meta-Registration: Learning Test-Time Optimization for Single-Pair Image
Registration [0.37501702548174964]
この研究は、画像登録をメタ学習アルゴリズムとして定式化する。
前立腺癌108例の臨床経直腸超音波画像データを用いて実験を行った。
論文 参考訳(メタデータ) (2022-07-22T10:30:00Z) - MT3: Meta Test-Time Training for Self-Supervised Test-Time Adaption [69.76837484008033]
ディープラーニングの未解決の問題は、ニューラルネットワークがテスト時間中のドメインシフトに対処する能力である。
メタラーニング、自己監督、テストタイムトレーニングを組み合わせて、目に見えないテスト分布に適応する方法を学びます。
この手法はcifar-10による画像分類ベンチマークの最先端結果を大幅に改善する。
論文 参考訳(メタデータ) (2021-03-30T09:33:38Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - Neural Model-based Optimization with Right-Censored Observations [42.530925002607376]
ニューラルネットワーク(NN)は、モデルベースの最適化手順のコアでうまく機能することが実証されている。
トレーニングされた回帰モデルは,いくつかのベースラインよりも優れた予測品質が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T07:32:30Z) - AutoSimulate: (Quickly) Learning Synthetic Data Generation [70.82315853981838]
目的の新たな微分可能近似に基づく最適な合成データ生成法を提案する。
提案手法は,学習データ生成の高速化(最大50Times$)と,実世界のテストデータセットの精度向上(+8.7%$)を実現している。
論文 参考訳(メタデータ) (2020-08-16T11:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。