論文の概要: Learning Implicit Priors for Motion Optimization
- arxiv url: http://arxiv.org/abs/2204.05369v1
- Date: Mon, 11 Apr 2022 19:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:41:30.263657
- Title: Learning Implicit Priors for Motion Optimization
- Title(参考訳): 動き最適化のための暗黙の事前学習
- Authors: Alexander Lambert, An T. Le, Julen Urain, Georgia Chalvatzaki, Byron
Boots, Jan Peters
- Abstract要約: エネルギーベースモデル(EBM)は、表現力のある確率密度分布を表す。
本稿では,EMMを動作最適化に適用するために必要となるモデリングとアルゴリズムの選択について述べる。
- 参考スコア(独自算出の注目度): 105.11889448885226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on the problem of integrating Energy-based Models
(EBM) as guiding priors for motion optimization. EBMs are a set of neural
networks that can represent expressive probability density distributions in
terms of a Gibbs distribution parameterized by a suitable energy function. Due
to their implicit nature, they can easily be integrated as optimization factors
or as initial sampling distributions in the motion optimization problem, making
them good candidates to integrate data-driven priors in the motion optimization
problem. In this work, we present a set of required modeling and algorithmic
choices to adapt EBMs into motion optimization. We investigate the benefit of
including additional regularizers in the learning of the EBMs to use them with
gradient-based optimizers and we present a set of EBM architectures to learn
generalizable distributions for manipulation tasks. We present multiple cases
in which the EBM could be integrated for motion optimization and evaluate the
performance of learned EBMs as guiding priors for both simulated and real robot
experiments.
- Abstract(参考訳): 本稿では,運動最適化の先駆けとして,エネルギーベースモデル(EBM)の統合の問題に焦点を当てる。
EBMは、適切なエネルギー関数によってパラメータ化されたギブス分布の観点から表現可能な確率密度分布を表現できるニューラルネットワークの集合である。
その暗黙的性質から、運動最適化問題における最適化因子や初期サンプリング分布として容易に統合することができ、運動最適化問題においてデータ駆動前駆を統合できる良い候補となる。
本稿では,ebmを動作最適化に適応させるために必要なモデリングとアルゴリズム選択のセットを提案する。
我々は,ebmの学習に追加の正規化器を組み込むことで,グラデーションに基づくオプティマイザと併用することの利点について検討し,操作タスクの一般化分布を学習するためのebmアーキテクチャのセットを提案する。
動作最適化のためにEMMを統合できる事例を複数報告し,シミュレーションおよび実ロボット実験の先駆者として学習したEMMの性能評価を行った。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - GLHF: General Learned Evolutionary Algorithm Via Hyper Functions [16.391389860521134]
一般事前学習最適化モデル(GPOM)は、最先端進化アルゴリズムと事前学習最適化モデル(POM)より優れている
GPOMは多様なタスク分布、次元、人口規模、最適化地平線にまたがる堅牢な一般化能力を示す。
論文 参考訳(メタデータ) (2024-05-06T09:11:49Z) - Improving Energy Conserving Descent for Machine Learning: Theory and
Practice [0.0]
我々は,エネルギーコンドネッサンス理論(ECD)を開発し,凸非保存問題に対処可能な勾配に基づく最適化アルゴリズムであるECDSepを導入する。
論文 参考訳(メタデータ) (2023-06-01T05:15:34Z) - Data-Driven Stochastic Motion Evaluation and Optimization with Image by
Spatially-Aligned Temporal Encoding [8.104557130048407]
本稿では,長動きに対する確率的動き予測法を提案し,その動きが与えられた画像で観測された初期状態からタスクを達成できるように予測する。
本手法は空間的に時間的エンコーディングによって画像特徴領域に画像と動きデータをシームレスに統合する。
提案手法の有効性は, 同様のSOTA法を用いた様々な実験で実証された。
論文 参考訳(メタデータ) (2023-02-10T04:06:00Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - End-to-End Stochastic Optimization with Energy-Based Model [18.60842637575249]
近年,未知パラメータを含む客観的最適化問題に対して,DFL(Decision- Focus Learning)が提案されている。
エネルギーモデルを用いた層最適化のための汎用的で効率的なDFL手法SO-EBMを提案する。
論文 参考訳(メタデータ) (2022-11-25T00:14:12Z) - Optimization of Annealed Importance Sampling Hyperparameters [77.34726150561087]
Annealed Importance Smpling (AIS) は、深層生成モデルの難易度を推定するために使われる一般的なアルゴリズムである。
本稿では、フレキシブルな中間分布を持つパラメータAISプロセスを提案し、サンプリングに少ないステップを使用するようにブリッジング分布を最適化する。
我々は, 最適化AISの性能評価を行い, 深部生成モデルの限界推定を行い, 他の推定値と比較した。
論文 参考訳(メタデータ) (2022-09-27T07:58:25Z) - Semi-Empirical Objective Functions for MCMC Proposal Optimization [31.189518729816474]
本稿では、任意パラメータ化された提案分布を最適化するのに適した、近似目的関数を決定するための半経験的手順を紹介し、実証する。
我々は、Ab Initio目的関数が十分に頑健であり、深層生成ネットワークによってパラメータ化されたMCMC提案分布の確実な最適化を可能にすることを論じる。
論文 参考訳(メタデータ) (2021-06-03T19:52:56Z) - Optimization-Inspired Learning with Architecture Augmentations and
Control Mechanisms for Low-Level Vision [74.9260745577362]
本稿では,GDC(Generative, Discriminative, and Corrective)の原則を集約する,最適化に着想を得た統合学習フレームワークを提案する。
フレキシブルな組み合わせで最適化モデルを効果的に解くために,3つのプロパゲーティブモジュールを構築した。
低レベル視覚タスクにおける実験は、GDCの有効性と適応性を検証する。
論文 参考訳(メタデータ) (2020-12-10T03:24:53Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。