論文の概要: Fast Computation of Hahn Polynomials for High Order Moments
- arxiv url: http://arxiv.org/abs/2111.07749v1
- Date: Wed, 10 Nov 2021 22:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-21 15:32:49.322320
- Title: Fast Computation of Hahn Polynomials for High Order Moments
- Title(参考訳): 高次モーメントに対するハーン多項式の高速計算
- Authors: Basheera M. Mahmmod, Sadiq H. Abdulhussain, Tom\'a\v{s} Suk, and Abir
Hussain
- Abstract要約: 本稿では、DHPの初期値とDHPパラメータの異なる値(alpha$と$beta$)を計算するための新しい数学的モデルを開発した。
計算コストと正しい生成が可能な最大サイズの観点から、最先端のアルゴリズムと比較される。
- 参考スコア(独自算出の注目度): 2.022925087410209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discrete Hahn polynomials (DHPs) and their moments are considered to be one
of the efficient orthogonal moments and they are applied in various scientific
areas such as image processing and feature extraction. Commonly, DHPs are used
as object representation; however, they suffer from the problem of numerical
instability when the moment order becomes large. In this paper, an efficient
method for computation of Hahn orthogonal basis is proposed and applied to high
orders. This paper developed a new mathematical model for computing the initial
value of the DHP and for different values of DHP parameters ($\alpha$ and
$\beta$). In addition, the proposed method is composed of two recurrence
algorithms with an adaptive threshold to stabilize the generation of the DHP
coefficients. It is compared with state-of-the-art algorithms in terms of
computational cost and the maximum size that can be correctly generated. The
experimental results show that the proposed algorithm performs better in both
parameters for wide ranges of parameter values of ($\alpha$ and $\beta$) and
polynomial sizes.
- Abstract(参考訳): 離散ハーン多項式(DHP)とそのモーメントは、効率的な直交モーメントの1つと考えられ、画像処理や特徴抽出といった様々な科学分野に適用されている。
一般に、dhpはオブジェクト表現として使われるが、モーメント順序が大きくなると数値不安定の問題に苦しんでいる。
本稿では,ハーン直交基底の効率的な計算法を提案し,高次数に対して適用する。
本稿では、DHPの初期値とDHPパラメータの異なる値($\alpha$と$\beta$)を計算するための新しい数学的モデルを開発した。
さらに,DHP係数の生成を安定化させるために,適応しきい値を持つ2つの再帰アルゴリズムからなる手法を提案する。
計算コストと正確な生成が可能な最大サイズの観点から、最先端のアルゴリズムと比較される。
実験の結果,提案アルゴリズムは,パラメータ値($\alpha$および$\beta$)と多項式サイズの両方において,より優れた性能を示すことがわかった。
関連論文リスト
- A Natural Primal-Dual Hybrid Gradient Method for Adversarial Neural Network Training on Solving Partial Differential Equations [9.588717577573684]
偏微分方程式(PDE)を解くためのスケーラブルな事前条件付き原始ハイブリッド勾配アルゴリズムを提案する。
本稿では,提案手法の性能を,一般的なディープラーニングアルゴリズムと比較する。
その結果,提案手法は効率的かつ堅牢に動作し,安定に収束することが示唆された。
論文 参考訳(メタデータ) (2024-11-09T20:39:10Z) - A Multi-objective Newton Optimization Algorithm for Hyper-Parameter
Search [0.0]
このアルゴリズムを用いて畳み込みニューラルネットワークの多クラス物体検出問題に対する最適確率しきい値(8パラメータのベクトル)を探索する。
このアルゴリズムは、デフォルト値0.5に比べて総合的に高い真正(TP)と低い偽正(FP)率を生成する。
論文 参考訳(メタデータ) (2024-01-07T21:12:34Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Accelerated and Improved Stabilization for High Order Moments of Racah
Polynomials [0.6445605125467573]
Inproved Stabilization (ImSt) と呼ばれる新しいアルゴリズムを提案する。
ImStは、現在のアルゴリズムよりも高次になるまで、幅広いパラメータに対して機能する。
論文 参考訳(メタデータ) (2022-12-30T17:07:26Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Genealogical Population-Based Training for Hyperparameter Optimization [1.0514231683620516]
本研究では,計算コストの2倍から3倍に削減できることを実験的に実証した。
本手法は探索アルゴリズムであり,内部探索ルーチンをTPE,GP,CMA,ランダム探索などの任意の探索アルゴリズムにすることができる。
論文 参考訳(メタデータ) (2021-09-30T08:49:41Z) - HyP-ABC: A Novel Automated Hyper-Parameter Tuning Algorithm Using
Evolutionary Optimization [1.6114012813668934]
改良されたミツバチコロニーを用いたハイブリッドハイパーパラメータ最適化アルゴリズムHyP-ABCを提案する。
最先端技術と比較して、HyP-ABCは効率が良く、調整すべきパラメータが限られている。
論文 参考訳(メタデータ) (2021-09-11T16:45:39Z) - Reducing the Variance of Gaussian Process Hyperparameter Optimization
with Preconditioning [54.01682318834995]
プレコンディショニングは、行列ベクトル乗算を含む反復的な方法にとって非常に効果的なステップである。
プレコンディショニングには、これまで検討されていなかった付加的なメリットがあることを実証する。
基本的に無視可能なコストで、同時に分散を低減することができる。
論文 参考訳(メタデータ) (2021-07-01T06:43:11Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z) - Determinantal Point Processes in Randomized Numerical Linear Algebra [80.27102478796613]
数値線形代数(RandNLA)は、科学計算、データサイエンス、機械学習などで発生する行列問題に対する改良されたアルゴリズムを開発するためにランダム性を使用する。
最近の研究により、DPPとRandNLAの間の深い実りある関係が明らかになり、新たな保証とアルゴリズムの改善につながった。
論文 参考訳(メタデータ) (2020-05-07T00:39:52Z) - Optimal Randomized First-Order Methods for Least-Squares Problems [56.05635751529922]
このアルゴリズムのクラスは、最小二乗問題に対する最も高速な解法のうち、いくつかのランダム化手法を含んでいる。
我々は2つの古典的埋め込み、すなわちガウス射影とアダマール変換のサブサンプリングに焦点を当てる。
得られたアルゴリズムは条件数に依存しない最小二乗問題の解法として最も複雑である。
論文 参考訳(メタデータ) (2020-02-21T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。