論文の概要: Probabilistic orientation estimation with matrix Fisher distributions
- arxiv url: http://arxiv.org/abs/2006.09740v1
- Date: Wed, 17 Jun 2020 09:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 19:59:18.525307
- Title: Probabilistic orientation estimation with matrix Fisher distributions
- Title(参考訳): 行列フィッシャー分布を用いた確率的方向推定
- Authors: D. Mohlin, G. Bianchi, J. Sullivan
- Abstract要約: 本稿では,深層ニューラルネットワークを用いた3次元回転の集合上での確率分布の推定に着目する。
モデルを回転集合に回帰させることは、トポロジーの違いにより本質的に困難である。
我々はニューラルネットワークを用いて行列フィッシャー分布のパラメータを出力することでこの問題を克服する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on estimating probability distributions over the set of 3D
rotations ($SO(3)$) using deep neural networks. Learning to regress models to
the set of rotations is inherently difficult due to differences in topology
between $\mathbb{R}^N$ and $SO(3)$. We overcome this issue by using a neural
network to output the parameters for a matrix Fisher distribution since these
parameters are homeomorphic to $\mathbb{R}^9$. By using a negative log
likelihood loss for this distribution we get a loss which is convex with
respect to the network outputs. By optimizing this loss we improve
state-of-the-art on several challenging applicable datasets, namely Pascal3D+,
ModelNet10-$SO(3)$ and UPNA head pose.
- Abstract(参考訳): 本稿では,深部ニューラルネットワークを用いた3次元回転数(SO(3)$)の確率分布の推定に着目する。
回転の集合にモデルを回帰させることは、$\mathbb{R}^N$ と $SO(3)$ の位相の違いにより本質的に困難である。
これらのパラメータは$\mathbb{R}^9$に同型であるため、ニューラルネットワークを用いて行列フィッシャー分布のパラメータを出力することでこの問題を克服する。
この分布に対して負のログ可能性損失を用いることで、ネットワーク出力に対して凸な損失が得られる。
この損失を最適化することで、Pascal3D+、ModelNet10-$SO(3)$、UPNAヘッドポーズといった、いくつかの挑戦可能なデータセットの最先端性を改善します。
関連論文リスト
- Computing critical exponents in 3D Ising model via pattern recognition/deep learning approach [1.6317061277457001]
我々は、スピン状態の特定のコンフォーメーションに基づいてニューラルネットワークをトレーニングするための教師付きディープラーニングアプローチを実行する。
列車/テストの精度はそれぞれ0.92と0.6875である。
このアプローチから重要な指数を計算することの可能性を定量化するために、さらに多くの研究が続けられている。
論文 参考訳(メタデータ) (2024-11-04T20:57:24Z) - Self-Ensembling Gaussian Splatting for Few-shot Novel View Synthesis [55.561961365113554]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)に顕著な効果を示した
しかし、3DGSモデルはスパースポーズのビューで訓練すると過度に適合する傾向にあり、より広いポーズのバリエーションに対して一般化能力を制限する。
オーバーフィッティング問題を緩和するために, 自己理解型ガウススプラッティング (SE-GS) アプローチを導入する。
論文 参考訳(メタデータ) (2024-10-31T18:43:48Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - High-Dimensional Smoothed Entropy Estimation via Dimensionality
Reduction [14.53979700025531]
微分エントロピー$h(X+Z)$を独立に$n$で推定し、同じ分散サンプルを$X$とする。
絶対誤差損失では、上記の問題はパラメータ推定率$fraccDsqrtn$である。
我々は、エントロピー推定の前に主成分分析(PCA)を通して低次元空間に$X$を投影することで、この指数的なサンプル複雑性を克服する。
論文 参考訳(メタデータ) (2023-05-08T13:51:48Z) - A Laplace-inspired Distribution on SO(3) for Probabilistic Rotation
Estimation [35.242645262982045]
単一のRGB画像から3DoF回転を推定することは重要な問題である。
我々はSO(3)上の回転ラプラス分布を提案する。
実験の結果,提案手法は回転回帰タスクの最先端性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T07:10:02Z) - Reducing SO(3) Convolutions to SO(2) for Efficient Equivariant GNNs [3.1618838742094457]
等変畳み込みは高次テンソルを使用すると計算複雑性が著しく増加する。
大規模なOC-20データセットとOC-22データセットの最先端結果が得られる同変畳み込みに対する我々の新しいアプローチを利用したグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:16:13Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Bayesian Neural Network via Stochastic Gradient Descent [0.0]
本稿では,勾配推定手法を用いてベイズニューラルネットワークに勾配推定を適用する方法を示す。
我々の研究はベイジアンニューラルネットワークを用いた回帰手法のこれまでの状況を大きく上回っている。
論文 参考訳(メタデータ) (2020-06-04T18:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。