論文の概要: DRO: Deep Recurrent Optimizer for Structure-from-Motion
- arxiv url: http://arxiv.org/abs/2103.13201v2
- Date: Thu, 25 Mar 2021 09:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 11:02:06.214913
- Title: DRO: Deep Recurrent Optimizer for Structure-from-Motion
- Title(参考訳): DRO:Structure-from-Motionのためのディープリカレント最適化
- Authors: Xiaodong Gu, Weihao Yuan, Zuozhuo Dai, Siyu Zhu, Chengzhou Tang, Ping
Tan
- Abstract要約: 本稿では,recurrent neural network in structure-from-motion (sfm)に基づく新しい最適化手法を提案する。
神経は奥行きをアップデートし、カメラはイテレーションを通じて機能測定コストを最小化します。
実験により, 繰り返し計算により, 深度とポーズを補正しながら, 特徴量コストを効果的に低減できることを示した。
- 参考スコア(独自算出の注目度): 46.34708595941016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are increasing interests of studying the structure-from-motion (SfM)
problem with machine learning techniques. While earlier methods directly learn
a mapping from images to depth maps and camera poses, more recent works enforce
multi-view geometry through optimization embed in the learning framework. This
paper presents a novel optimization method based on recurrent neural networks
to further exploit the potential of neural networks in SfM. Our neural
optimizer alternatively updates the depth and camera poses through iterations
to minimize a feature-metric cost. Two gated recurrent units are designed to
trace the historical information during the iterations. Our network works as a
zeroth-order optimizer, where the computation and memory expensive cost volume
or gradients are avoided. Experiments demonstrate that our recurrent optimizer
effectively reduces the feature-metric cost while refining the depth and poses.
Our method outperforms previous methods and is more efficient in computation
and memory consumption than cost-volume-based methods. The code of our method
will be made public.
- Abstract(参考訳): sfm(structure-from-motion)問題を機械学習技術で研究する関心が高まっている。
より最近の研究では、画像から深度マップやカメラポーズへのマッピングを直接学習する一方で、学習フレームワークに最適化を組み込んだマルチビュー幾何が適用されている。
本稿では、SfMにおけるニューラルネットワークの可能性をさらに活用するために、リカレントニューラルネットワークに基づく新しい最適化手法を提案する。
私たちのニューラルオプティマイザは奥行きを更新し、カメラはイテレーションを通じて機能測定コストを最小化します。
2つのゲートリカレントユニットは、イテレーション中に履歴情報を追跡するように設計されている。
我々のネットワークはゼロ階最適化として機能し、計算とメモリコストのかかるボリュームや勾配を避ける。
実験により, 繰り返しオプティマイザは, 深度とポーズを改良しながら, 機能測定コストを効果的に低減できることを示した。
提案手法は従来の手法より優れており,コストボリューム法よりも計算とメモリ消費が効率的である。
私たちのメソッドのコードは公開されます。
関連論文リスト
- Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Transformer-Based Learned Optimization [37.84626515073609]
ニューラルネットワークを用いて計算の更新ステップを表現できる学習最適化手法を提案する。
私たちの革新は、古典的なBFGSアルゴリズムにインスパイアされた、新しいニューラルネットワークアーキテクチャです。
最適化アルゴリズムの評価に伝統的に用いられてきた目的関数からなるベンチマークにおいて,提案手法の利点を実証する。
論文 参考訳(メタデータ) (2022-12-02T09:47:08Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Learning to Optimize Quasi-Newton Methods [22.504971951262004]
本稿では、最適化時に最適な事前条件をオンラインで学習するLODOと呼ばれる新しい機械学習を提案する。
他のL2Oメソッドとは異なり、LODOはトレーニングタスクの配布にメタトレーニングを一切必要としない。
この勾配は, 雑音場における逆 Hessian を近似し, 幅広い逆 Hessian を表現可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:47:14Z) - Loop Unrolled Shallow Equilibrium Regularizer (LUSER) -- A
Memory-Efficient Inverse Problem Solver [26.87738024952936]
逆問題では、潜在的に破損し、しばしば不適切な測定結果から、いくつかの基本的な関心のシグナルを再構築することを目的としている。
浅い平衡正規化器(L)を用いたLUアルゴリズムを提案する。
これらの暗黙のモデルは、より深い畳み込みネットワークと同じくらい表現力があるが、トレーニング中にはるかにメモリ効率が良い。
論文 参考訳(メタデータ) (2022-10-10T19:50:37Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - SHINE: SHaring the INverse Estimate from the forward pass for bi-level
optimization and implicit models [15.541264326378366]
近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。
トレーニングは双レベル問題として実行され、その計算複雑性は巨大なヤコビ行列の反復反転によって部分的に駆動される。
本稿では,この計算ボトルネックに対処する新たな手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T15:07:34Z) - Human Body Model Fitting by Learned Gradient Descent [48.79414884222403]
画像に3次元の人体形状を適合させる新しいアルゴリズムを提案する。
このアルゴリズムは高速(約120ms収束)で、データセットに頑健であり、公開評価データセットの最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-19T14:26:47Z) - Neural Network-based Reconstruction in Compressed Sensing MRI Without
Fully-sampled Training Data [17.415937218905125]
CS-MRIは、アンダーサンプリングされたMR画像の再構成を約束している。
ニューラルネットワークで繰り返しをアンロールすることで、古典的なテクニックの反復性をモデル化するディープラーニングモデルが開発されている。
本稿では,古典的最適化方式で広く用いられている損失関数を応用して,非学習型再構成ネットワークを教師なしで訓練するための新しい戦略について検討する。
論文 参考訳(メタデータ) (2020-07-29T17:46:55Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。