論文の概要: Orientation Scores should be a Piece of Cake
- arxiv url: http://arxiv.org/abs/2504.00702v1
- Date: Tue, 01 Apr 2025 12:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:09.066921
- Title: Orientation Scores should be a Piece of Cake
- Title(参考訳): オリエンテーションスコアはケーキのピースであるべきだ
- Authors: Finn M. Sherry, Chase van de Geijn, Erik J. Bekkers, Remco Duits,
- Abstract要約: 位置空間 $mathbbR2$ から位置空間 $mathbbR2times S1$ へ持ち上げ、位置方向の不確実性を最小化する。
これらの最小不確実性状態がケーキウェーブレットによってよく近似されていることを示す。
我々は,PDE-)G-CNNのネットワークの複雑さを低減し,モデルの性能にわずかに影響を及ぼすことなく,解釈可能性を向上させることを実験的に示す。
- 参考スコア(独自算出の注目度): 6.905994258490735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We axiomatically derive a family of wavelets for an orientation score, lifting from position space $\mathbb{R}^2$ to position and orientation space $\mathbb{R}^2\times S^1$, with fast reconstruction property, that minimise position-orientation uncertainty. We subsequently show that these minimum uncertainty states are well-approximated by cake wavelets: for standard parameters, the uncertainty gap of cake wavelets is less than 1.1, and in the limit, we prove the uncertainty gap tends to the minimum of 1. Next, we complete a previous theoretical argument that one does not have to train the lifting layer in (PDE-)G-CNNs, but can instead use cake wavelets. Finally, we show experimentally that in this way we can reduce the network complexity and improve the interpretability of (PDE-)G-CNNs, with only a slight impact on the model's performance.
- Abstract(参考訳): 我々は、位置空間 $\mathbb{R}^2$ から位置と向き空間 $\mathbb{R}^2\times S^1$ へ持ち上げ、位置-向きの不確実性を最小化する高速な再構成特性を持つウェーブレットの族を公理的に導出する。
その後、これらの最小不確実性状態がケーキウェーブレットによってよく近似されることを示し、標準パラメータではケーキウェーブレットの不確実性ギャップが1.1未満であり、その限界では、不確実性ギャップが最低1.1であることを示した。
次に、(PDE-)G-CNNのリフト層をトレーニングする必要はなく、代わりにケーキウェーブレットを使用できるという、以前の理論的議論を完成させる。
最後に,この方法では,PDE-)G-CNNのネットワーク複雑性を低減し,モデルの性能にわずかに影響を及ぼすことなく,(PDE-)G-CNNの解釈可能性を向上させることができることを示す。
関連論文リスト
- Large Deviation Upper Bounds and Improved MSE Rates of Nonlinear SGD: Heavy-tailed Noise and Power of Symmetry [47.653744900375855]
重み付き雑音の存在下での最適凸勾配法の枠組みを提供する。
ステップサイズ・テールの非線形性,ノイズ,問題パラメータの選択に明示的に依存することを示す。
MSE $widetmathcalO(t-1)$ を最適な $mathcalO(t-1)$ に近づけることができる。
論文 参考訳(メタデータ) (2024-10-21T04:50:57Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - On the Convergence of Gradient Descent for Large Learning Rates [55.33626480243135]
固定ステップサイズを使用すると収束が不可能であることを示す。
正方形損失を持つ線形ニューラルネットワークの場合,これを証明した。
また、勾配に対するリプシッツ連続性のような強い仮定を必要とせず、より一般的な損失に対する収束の不可能性も証明する。
論文 参考訳(メタデータ) (2024-02-20T16:01:42Z) - Projected Langevin dynamics and a gradient flow for entropic optimal
transport [0.8057006406834466]
エントロピー規則化された最適輸送からサンプリングした類似拡散力学を導入する。
部分多様体 $Pi(mu,nu)$ の誘導されたワッサーシュタイン幾何学の研究により、SDE はこの結合空間上のワッサーシュタイン勾配フローとみなすことができると論じる。
論文 参考訳(メタデータ) (2023-09-15T17:55:56Z) - The Implicit Bias of Minima Stability in Multivariate Shallow ReLU
Networks [53.95175206863992]
本研究では,2次損失を持つ1層多変量ReLUネットワークをトレーニングする際に,勾配勾配勾配が収束する解のタイプについて検討する。
我々は、浅いReLUネットワークが普遍近似器であるにもかかわらず、安定した浅層ネットワークは存在しないことを証明した。
論文 参考訳(メタデータ) (2023-06-30T09:17:39Z) - Adaptive Stochastic Variance Reduction for Non-convex Finite-Sum
Minimization [52.25843977506935]
有限サム構造をもつ$L$-smooth, non-deuction関数に対して, AdaSpider と呼ばれる適応分散法を提案する。
そうすることで、$tildeOleft + st/epsilonコールで$epsilon-stationaryポイントを計算することができます。
論文 参考訳(メタデータ) (2022-11-03T14:41:46Z) - Feature selection with gradient descent on two-layer networks in
low-rotation regimes [20.41989568533313]
本研究では,2層ReLUネットワーク上での勾配流(GF)と勾配勾配勾配(SGD)の低試験誤差を確立する。
マージンをコア分析技術として利用する。
論文 参考訳(メタデータ) (2022-08-04T17:43:36Z) - When does SGD favor flat minima? A quantitative characterization via
linear stability [7.252584656056866]
勾配降下(SGD)は平らなミニマを好む。
線形ネットワークとランダム特徴モデル(RFM)に対するSGDノイズの有効保持特性
論文 参考訳(メタデータ) (2022-07-06T12:40:09Z) - Beyond the Edge of Stability via Two-step Gradient Updates [49.03389279816152]
Gradient Descent(GD)は、現代の機械学習の強力な仕事場である。
GDが局所最小値を見つける能力は、リプシッツ勾配の損失に対してのみ保証される。
この研究は、2段階の勾配更新の分析を通じて、単純だが代表的でありながら、学習上の問題に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-08T21:32:50Z) - Towards Noise-adaptive, Problem-adaptive Stochastic Gradient Descent [7.176107039687231]
雑音に対して勾配降下(SGD)を適応させるステップサイズスキームを設計する。
我々は、Nesterov反復によるSGDの$T$反復がほぼ最適であることを示す。
他のステップサイズスキームと比較して、新しい指数的なステップサイズスキームの有効性を実証する。
論文 参考訳(メタデータ) (2021-10-21T19:22:14Z) - On the Almost Sure Convergence of Stochastic Gradient Descent in
Non-Convex Problems [75.58134963501094]
本稿では,勾配降下(SGD)の軌跡を解析する。
我々はSGDが厳格なステップサイズポリシーのために1ドルでサドルポイント/マニフォールドを避けることを示す。
論文 参考訳(メタデータ) (2020-06-19T14:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。