論文の概要: Incorporating Exemplar Optimization into Training with Dual Networks for
Human Mesh Recovery
- arxiv url: http://arxiv.org/abs/2401.14121v1
- Date: Thu, 25 Jan 2024 12:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:43:31.162806
- Title: Incorporating Exemplar Optimization into Training with Dual Networks for
Human Mesh Recovery
- Title(参考訳): 人間のメッシュ回復のためのデュアルネットワークによるトレーニングへの模範的最適化の導入
- Authors: Yongwei Nie, Mingxian Fan, Chengjiang Long, Qing Zhang, Jian Zhu,
Xuemiao Xu
- Abstract要約: 単一画像からの新たな最適化に基づくヒューマンメッシュリカバリ手法を提案する。
模範最適化をトレーニングステージに組み込む。
実験により,新しい学習手法が最先端の手法を著しく上回る結果が得られた。
- 参考スコア(独自算出の注目度): 37.233112051529574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel optimization-based human mesh recovery method from a
single image. Given a test exemplar, previous approaches optimize the
pre-trained regression network to minimize the 2D re-projection loss, which
however suffer from over-/under-fitting problems. This is because the
``exemplar optimization'' at testing time has too weak relation to the
pre-training process, and the exemplar optimization loss function is different
from the training loss function. (1) We incorporate exemplar optimization into
the training stage. During training, our method first executes exemplar
optimization and subsequently proceeds with training-time optimization. The
exemplar optimization may run into a wrong direction, while the subsequent
training optimization serves to correct the deviation. Involved in training,
the exemplar optimization learns to adapt its behavior to training data,
thereby acquires generalibility to test exemplars. (2) We devise a dual-network
architecture to convey the novel training paradigm, which is composed of a main
regression network and an auxiliary network, in which we can formulate the
exemplar optimization loss function in the same form as the training loss
function. This further enhances the compatibility between the exemplar and
training optimizations. Experiments demonstrate that our exemplar optimization
after the novel training scheme significantly outperforms state-of-the-art
approaches.
- Abstract(参考訳): 単一画像からの新たな最適化に基づくヒューマンメッシュリカバリ手法を提案する。
従来の手法では、事前訓練された回帰ネットワークを最適化し、2次元の再投射損失を最小限に抑える。
これは、テスト時の `exemplar optimization'' が事前学習プロセスとあまりにも弱い関係にあり、模範最適化損失関数がトレーニング損失関数と異なるためである。
1) 模範最適化を訓練段階に組み込む。
トレーニング中は,まず模範最適化を行い,その後,訓練時間最適化を行う。
模範最適化は間違った方向に進むが、その後の訓練最適化はずれを修正するのに役立つ。
トレーニングにかかわるexemplar optimizationは、その動作をトレーニングデータに適応させることを学習し、exemplarのテストの汎用性を取得する。
2) 主回帰ネットワークと補助ネットワークから構成され, トレーニング損失関数と同一の形式で最適な最適化損失関数を定式化できる, 新たなトレーニングパラダイムを伝達するためのデュアルネットワークアーキテクチャを考案する。
これにより、exemplarとトレーニング最適化の互換性がさらに向上する。
実験により,新しい学習手法が最先端の手法よりも優れていることを示す。
関連論文リスト
- Fast Propagation is Better: Accelerating Single-Step Adversarial
Training via Sampling Subnetworks [69.54774045493227]
逆行訓練の欠点は、逆行例の生成によって引き起こされる計算オーバーヘッドである。
モデルの内部構造ブロックを利用して効率を向上させることを提案する。
従来の手法と比較して,本手法はトレーニングコストを削減できるだけでなく,モデルの堅牢性も向上する。
論文 参考訳(メタデータ) (2023-10-24T01:36:20Z) - Transformer-Based Learned Optimization [37.84626515073609]
ニューラルネットワークを用いて計算の更新ステップを表現できる学習最適化手法を提案する。
私たちの革新は、古典的なBFGSアルゴリズムにインスパイアされた、新しいニューラルネットワークアーキテクチャです。
最適化アルゴリズムの評価に伝統的に用いられてきた目的関数からなるベンチマークにおいて,提案手法の利点を実証する。
論文 参考訳(メタデータ) (2022-12-02T09:47:08Z) - Self-Supervised Primal-Dual Learning for Constrained Optimization [19.965556179096385]
本稿では,制約付き最適化問題の最適解を直接近似する機械学習モデルの訓練方法を検討する。
プリマル・デュアル・ラーニング(PDL, Primal-Dual Learning)は,事前解決した一連のインスタンスや,学習と推論のための最適化解法を必要としない自己指導型トレーニング手法である。
論文 参考訳(メタデータ) (2022-08-18T20:07:10Z) - Optimization-Derived Learning with Essential Convergence Analysis of
Training and Hyper-training [52.39882976848064]
固定点反復に基づく一般化クラスノセルスキーマンスキースキーム(GKM)を基本ODLモジュールとして設計する。
GKMスキームでは、最適トレーニングとハイパートレーニング変数を同時に解くために、バイレベルメタ最適化(BMO)アルゴリズムフレームワークを構築している。
論文 参考訳(メタデータ) (2022-06-16T01:50:25Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Optimizer Fusion: Efficient Training with Better Locality and
Parallelism [11.656318345362804]
実験の結果,様々な構成で最大20%のトレーニング時間を短縮できることがわかった。
提案手法はアルゴリズムを変更しないため,訓練プロセスの一般的な「プラグイン」技術として利用することができる。
論文 参考訳(メタデータ) (2021-04-01T03:44:13Z) - Training Learned Optimizers with Randomly Initialized Learned Optimizers [49.67678615506608]
ランダムに学習した人の集団は、オンラインの方法でゼロから学習することができる。
人口ベーストレーニングの形式は、この自己学習の組織化に使用される。
このタイプのフィードバックループは、機械学習の将来において重要かつ強力なものになると思います。
論文 参考訳(メタデータ) (2021-01-14T19:07:17Z) - Efficient Robust Training via Backward Smoothing [125.91185167854262]
敵の訓練は敵の例に対抗して最も効果的な戦略である。
トレーニングの各ステップにおける反復的な敵攻撃により、高い計算コストに悩まされる。
近年の研究では、単一段階攻撃を行うことで、高速な対人訓練が可能であることが示されている。
論文 参考訳(メタデータ) (2020-10-03T04:37:33Z) - A Novel DNN Training Framework via Data Sampling and Multi-Task
Optimization [7.001799696806368]
DNNモデルをトレーニングするための新しいフレームワークを提案する。
ランダムスプリッティングにより、総合的なトレーニングセットから複数のトレーニングセットと検証セットを生成する。
トレーニングされたすべてのモデルの中で最高のパフォーマンスを出力し、すべてのペアから検証セット全体で全体の最高のパフォーマンスを出力します。
論文 参考訳(メタデータ) (2020-07-02T10:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。