論文の概要: Tensor Train for Global Optimization Problems in Robotics
- arxiv url: http://arxiv.org/abs/2206.05077v1
- Date: Fri, 10 Jun 2022 13:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 20:27:15.645952
- Title: Tensor Train for Global Optimization Problems in Robotics
- Title(参考訳): ロボットのグローバル最適化問題に対するテンソルトレイン
- Authors: Suhan Shetty, Teguh Lembono, Tobias Loew, and Sylvain Calinon
- Abstract要約: 多くの数値最適化手法の収束は、解法に提供される初期推定に非常に敏感である。
提案手法は,グローバル最適に近い既存の最適化解法を初期化するためのテンソル法に基づくアプローチである。
- 参考スコア(独自算出の注目度): 7.735588537107983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The convergence of many numerical optimization techniques is highly sensitive
to the initial guess provided to the solver. We propose an approach based on
tensor methods to initialize the existing optimization solvers close to global
optima. The approach uses only the definition of the cost function and does not
need access to any database of good solutions. We first transform the cost
function, which is a function of task parameters and optimization variables,
into a probability density function. Unlike existing approaches that set the
task parameters as constant, we consider them as another set of random
variables and approximate the joint probability distribution of the task
parameters and the optimization variables using a surrogate probability model.
For a given task, we then generate samples from the conditional distribution
with respect to the given task parameter and use them as initialization for the
optimization solver. As conditioning and sampling from an arbitrary density
function are challenging, we use Tensor Train decomposition to obtain a
surrogate probability model from which we can efficiently obtain the
conditional model and the samples. The method can produce multiple solutions
coming from different modes (when they exist) for a given task. We first
evaluate the approach by applying it to various challenging benchmark functions
for numerical optimization that are difficult to solve using gradient-based
optimization solvers with a naive initialization, showing that the proposed
method can produce samples close to the global optima and coming from multiple
modes. We then demonstrate the generality of the framework and its relevance to
robotics by applying the proposed method to inverse kinematics and motion
planning problems with a 7-DoF manipulator.
- Abstract(参考訳): 多くの数値最適化手法の収束は、解法に提供される初期推定に非常に敏感である。
提案手法は,グローバル最適に近い既存の最適化解法を初期化するためのテンソル法に基づくアプローチである。
このアプローチではコスト関数の定義のみを使用し、優れたソリューションのデータベースにアクセスする必要はない。
まず,タスクパラメータと最適化変数の関数であるコスト関数を確率密度関数に変換する。
タスクパラメータを定数として設定する既存のアプローチとは異なり、これらを別のランダム変数の集合と考え、代用確率モデルを用いてタスクパラメータと最適化変数の結合確率分布を近似する。
与えられたタスクに対して、与えられたタスクパラメータに関する条件分布からサンプルを生成し、最適化解法の初期化として使用する。
任意の密度関数からの条件付けとサンプリングは困難であり、テンソルトレイン分解を用いて条件付きモデルとサンプルを効率的に得ることができるサロゲート確率モデルを得る。
この方法は、あるタスクに対して異なるモード(存在するとき)から生じる複数のソリューションを生成することができる。
提案手法は,まず,線形初期化による勾配に基づく最適化問題を解くのが困難な数値最適化のための様々なベンチマーク関数に適用し,提案手法がグローバルな最適値に近いサンプルを生成できることを示す。
提案手法を7-DoFマニピュレータを用いた運動計画問題と逆運動学に応用することにより,フレームワークの汎用性とロボット工学との関係を実証する。
関連論文リスト
- Learning Multiple Initial Solutions to Optimization Problems [52.9380464408756]
厳密なランタイム制約の下で、同様の最適化問題を順次解決することは、多くのアプリケーションにとって不可欠である。
本稿では,問題インスタンスを定義するパラメータが与えられた初期解を多種多様に予測する学習を提案する。
提案手法は,すべての評価設定において有意かつ一貫した改善を実現し,必要な初期解の数に応じて効率よくスケールできることを実証した。
論文 参考訳(メタデータ) (2024-11-04T15:17:19Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Bayesian Optimization for Non-Convex Two-Stage Stochastic Optimization Problems [2.9016548477524156]
知識に基づく獲得関数を定式化し,第1段と第2段の変数を協調的に最適化する。
可変型間の寸法と長さの差が2段階アルゴリズムの非効率性をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-30T16:26:31Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - The Curse of Unrolling: Rate of Differentiating Through Optimization [35.327233435055305]
未分化は反復解法を用いて解を近似し、計算経路を通して解を微分する。
我々は,(1)高速収束につながる大きな学習率を選択することができるが,アルゴリズムが任意に長いバーンインフェーズを持つことを受け入れるか,あるいは(2)即時収束につながるより少ない学習率を選択するかのどちらかを示す。
論文 参考訳(メタデータ) (2022-09-27T09:27:29Z) - A Globally Convergent Gradient-based Bilevel Hyperparameter Optimization
Method [0.0]
ハイパーパラメータ最適化問題の解法として,勾配に基づく双レベル法を提案する。
提案手法は, より低い計算量に収束し, テストセットをより良く一般化するモデルに導かれることを示す。
論文 参考訳(メタデータ) (2022-08-25T14:25:16Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。