論文の概要: Majorization Minimization Methods for Distributed Pose Graph
Optimization with Convergence Guarantees
- arxiv url: http://arxiv.org/abs/2003.05353v3
- Date: Tue, 4 May 2021 14:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 16:00:56.620035
- Title: Majorization Minimization Methods for Distributed Pose Graph
Optimization with Convergence Guarantees
- Title(参考訳): 収束保証を用いた分散ポーズグラフ最適化のための行列化最小化法
- Authors: Taosha Fan and Todd Murphey
- Abstract要約: 提案手法は軽度条件下で一階臨界点に収束することが保証されていることを示す。
提案手法は分散PGOの近位演算子に依存するため,収束速度を著しく向上させることができる。
この研究の有効性は、2Dおよび3D SLAMデータセットの応用を通じて検証される。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem of distributed pose graph optimization
(PGO) that has extensive applications in multi-robot simultaneous localization
and mapping (SLAM). We propose majorization minimization methods to distributed
PGO and show that our proposed methods are guaranteed to converge to
first-order critical points under mild conditions. Furthermore, since our
proposed methods rely a proximal operator of distributed PGO, the convergence
rate can be significantly accelerated with Nesterov's method, and more
importantly, the acceleration induces no compromise of theoretical guarantees.
In addition, we also present accelerated majorization minimization methods to
the distributed chordal initialization that have a quadratic convergence, which
can be used to compute an initial guess for distributed PGO. The efficacy of
this work is validated through applications on a number of 2D and 3D SLAM
datasets and comparisons with existing state-of-the-art methods, which
indicates that our proposed methods have faster convergence and result in
better solutions to distributed PGO.
- Abstract(参考訳): 本稿では,マルチロボット同時ローカライゼーション・マッピング(SLAM)における分散ポーズグラフ最適化(PGO)の問題について考察する。
本稿では,分散pgoに対するメジャー化最小化手法を提案し,提案手法が穏やかな条件下で第一次臨界点に収束することを保証していることを示す。
さらに,提案手法は分散PGOの近似演算子に依存しているため,収束速度はネステロフ法により著しく加速することができ,さらに重要なことは,加速度が理論的保証の妥協を生じさせないことである。
さらに,二次収束を持つ分散和声初期化に対して,分散pgoの初期推定を計算するために使用可能な,高速化された主化最小化法を提案する。
本研究の有効性は,多数の2次元および3次元SLAMデータセットの応用および既存の最先端手法との比較を通じて検証され,提案手法がより高速に収束し,分散PGOに対するより良い解が得られることを示す。
関連論文リスト
- Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Decentralized Entropic Optimal Transport for Distributed Distribution Comparison [28.122302344024387]
本稿では,通信効率とプライバシ保護を両立させる分散型エントロピー最適輸送(DEOT)手法を提案する。
特に,DOT距離を2倍に最適化するミニバッチランダム化ブロック座標降下法を設計する。
提案手法は,エントロピックなGromov-Wasserstein距離にも適用可能であることを示す。
論文 参考訳(メタデータ) (2023-01-28T02:47:42Z) - Distributed and Stochastic Optimization Methods with Gradient
Compression and Local Steps [0.0]
本稿では,誤差補償と局所的な更新を伴う解析および分散手法に関する理論的枠組みを提案する。
線形収束型Error-pensated法と分散型Local-SGD法を含む20以上の新しい最適化手法を開発した。
論文 参考訳(メタデータ) (2021-12-20T16:12:54Z) - Acceleration Methods [57.202881673406324]
まず2次最適化問題を用いて加速法を2つ導入する。
我々は、ネステロフの精巧な研究から始まる運動量法を詳細に論じる。
我々は、ほぼ最適な収束率に達するための一連の簡単な手法である再起動スキームを議論することで結論付ける。
論文 参考訳(メタデータ) (2021-01-23T17:58:25Z) - IDEAL: Inexact DEcentralized Accelerated Augmented Lagrangian Method [64.15649345392822]
本稿では,局所関数が滑らかで凸な分散最適化環境下での原始的手法設計のためのフレームワークを提案する。
提案手法は,加速ラグランジアン法により誘導されるサブプロブレム列を概ね解いたものである。
加速度勾配降下と組み合わせることで,収束速度が最適で,最近導出された下界と一致した新しい原始アルゴリズムが得られる。
論文 参考訳(メタデータ) (2020-06-11T18:49:06Z) - FedSplit: An algorithmic framework for fast federated optimization [40.42352500741025]
本稿では,分散凸最小化を付加構造で解くアルゴリズムのクラスであるFedSplitを紹介する。
これらの手法は, 中間局所量の不正確な計算に対して, 確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2020-05-11T16:30:09Z) - On Distributed Non-convex Optimization: Projected Subgradient Method For
Weakly Convex Problems in Networks [13.385373310554327]
Moreau subgradient 法は、機械学習における線形シャープネス問題を収束させる。
理論的保証を伴う下位段階法の分散実装を提案する。
論文 参考訳(メタデータ) (2020-04-28T01:01:49Z) - Detached Error Feedback for Distributed SGD with Random Sparsification [98.98236187442258]
コミュニケーションのボトルネックは、大規模なディープラーニングにおいて重要な問題である。
非効率な分散問題に対する誤りフィードバックよりも優れた収束性を示す分散誤差フィードバック(DEF)アルゴリズムを提案する。
また、DEFよりも優れた境界を示すDEFの一般化を加速するDEFAを提案する。
論文 参考訳(メタデータ) (2020-04-11T03:50:59Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。