論文の概要: Analyzing Deviations of Dyadic Lines in Fast Hough Transform
- arxiv url: http://arxiv.org/abs/2311.10064v1
- Date: Thu, 16 Nov 2023 18:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 13:12:31.896125
- Title: Analyzing Deviations of Dyadic Lines in Fast Hough Transform
- Title(参考訳): 高速ハフ変換におけるダッチ線の偏差解析
- Authors: Gleb Smirnov, Simon Karpenko
- Abstract要約: 本論文は, ダイアディック線が理想的な線から逸脱することの統計的解析に対処する。
n$が増加するにつれて、これらの偏差の分布は、平均がゼロでばらつきが小さい正規分布へと収束する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast Hough transform is a widely used algorithm in pattern recognition. The
algorithm relies on approximating lines using a specific discrete line model
called dyadic lines. The worst-case deviation of a dyadic line from the ideal
line it used to construct grows as $O(log(n))$, where $n$ is the linear size of
the image. But few lines actually reach the worst-case bound. The present paper
addresses a statistical analysis of the deviation of a dyadic line from its
ideal counterpart. Specifically, our findings show that the mean deviation is
zero, and the variance grows as $O(log(n))$. As $n$ increases, the distribution
of these (suitably normalized) deviations converges towards a normal
distribution with zero mean and a small variance. This limiting result makes an
essential use of ergodic theory.
- Abstract(参考訳): ファストハフ変換はパターン認識において広く使われているアルゴリズムである。
このアルゴリズムは、dyadic lineと呼ばれる特定の離散線モデルを用いて近似線に依存する。
dyadic 線が構成する理想直線から最も低い場合のずれは $o(log(n))$ となり、ここで $n$ は画像の線形サイズである。
しかし、最悪のケースに到達できる線は少ない。
本稿では, Dyadic 線が理想的な線から逸脱することの統計的解析について述べる。
具体的には、平均偏差がゼロであることを示し、分散は$O(log(n))$となる。
n$ が増加すると、これらの(適切に正規化された)偏差の分布は、平均がゼロで分散が小さい正規分布へと収束する。
この極限結果はエルゴード理論を本質的に利用する。
関連論文リスト
- Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Nearly $d$-Linear Convergence Bounds for Diffusion Models via Stochastic
Localization [40.808942894229325]
データ次元において線形である第1収束境界を提供する。
拡散モデルは任意の分布を近似するために少なくとも$tilde O(fracd log2(1/delta)varepsilon2)$ stepsを必要とすることを示す。
論文 参考訳(メタデータ) (2023-08-07T16:01:14Z) - (Nearly) Optimal Private Linear Regression via Adaptive Clipping [22.639650869444395]
固定されたガウス型分布から各データ点をサンプリングする微分プライベート線形回帰問題について検討する。
本稿では,各イテレーションの点を置換せずにサンプリングする1パスのミニバッチ勾配勾配法(DP-AMBSSGD)を提案し,解析する。
論文 参考訳(メタデータ) (2022-07-11T08:04:46Z) - Precise Learning Curves and Higher-Order Scaling Limits for Dot Product
Kernel Regression [41.48538038768993]
本稿では,ドット積カーネルのカーネルリッジ回帰問題に焦点をあてる。
我々は、任意の整数$r$に対して$m approx dr/r!$が常に学習曲線のピークを観測し、複数のサンプルワイズと非自明な振る舞いを複数のスケールで達成する。
論文 参考訳(メタデータ) (2022-05-30T04:21:31Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Variance-Aware Confidence Set: Variance-Dependent Bound for Linear
Bandits and Horizon-Free Bound for Linear Mixture MDP [76.94328400919836]
線形バンドイットと線形混合決定プロセス(mdp)に対する分散認識信頼セットの構築方法を示す。
線形バンドイットに対しては、$d を特徴次元とする$widetildeo(mathrmpoly(d)sqrt1 + sum_i=1ksigma_i2) が成り立つ。
線形混合 MDP に対し、$widetildeO(mathrmpoly(d)sqrtK)$ regret bound を得る。
論文 参考訳(メタデータ) (2021-01-29T18:57:52Z) - A Random Matrix Analysis of Random Fourier Features: Beyond the Gaussian
Kernel, a Precise Phase Transition, and the Corresponding Double Descent [85.77233010209368]
本稿では、データサンプルの数が$n$である現実的な環境で、ランダムフーリエ(RFF)回帰の正確さを特徴付けます。
この分析はまた、大きな$n,p,N$のトレーニングとテスト回帰エラーの正確な推定も提供する。
論文 参考訳(メタデータ) (2020-06-09T02:05:40Z) - New Bounds For Distributed Mean Estimation and Variance Reduction [25.815612182815702]
本稿では,ローカルな$d$-dimensional vector $x_v を mathbbRd$ で与えられた$n$マシンが分散平均推定(DME)問題を考える。
提案手法は, 従来の手法と比較して, 応用の実践的改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-21T13:27:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。