論文の概要: Real-valued continued fraction of straight lines
- arxiv url: http://arxiv.org/abs/2412.16191v1
- Date: Mon, 16 Dec 2024 07:37:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-29 07:32:24.941698
- Title: Real-valued continued fraction of straight lines
- Title(参考訳): 実数値連続した直線の分数
- Authors: Vijay Prakash S,
- Abstract要約: 非有界平面では、直線は数学的解析に広く用いられる。
直線は、独立変数よりもはるかに遅い速度で非有界となる有界非線形曲線に変換される。
画像分類の問題を解くことにより,連続分数の有界性の有用性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In an unbounded plane, straight lines are used extensively for mathematical analysis. They are tools of convenience. However, those with high slope values become unbounded at a faster rate than the independent variable. So, straight lines, in this work, are made to be bounded by introducing a parametric nonlinear term that is positive. The straight lines are transformed into bounded nonlinear curves that become unbounded at a much slower rate than the independent variable. This transforming equation can be expressed as a continued fraction of straight lines. The continued fraction is real-valued and converges to the solutions of the transforming equation. Following Euler's method, the continued fraction has been reduced into an infinite series. The usefulness of the bounding nature of continued fraction is demonstrated by solving the problem of image classification. Parameters estimated on the Fashion-MNIST dataset of greyscale images using continued fraction of regression lines have less variance, converge quickly and are more accurate than the linear counterpart. Moreover, this multi-dimensional parametric estimation problem can be expressed on $xy-$ plane using the parameters of the continued fraction and patterns emerge on planar plots.
- Abstract(参考訳): 非有界平面では、直線は数学的解析に広く用いられる。
彼らは便利な道具です。
しかし、高い傾斜値を持つものは独立変数よりも速い速度で非有界となる。
したがって、この研究において直線は正のパラメトリック非線形項を導入することによって有界となる。
直線は、独立変数よりもはるかに遅い速度で非有界となる有界非線形曲線に変換される。
この変換方程式は連続した直線の分数として表すことができる。
続く分数は実数値化され、変換方程式の解に収束する。
オイラーの手法に従えば、連続する分数は無限級数に還元される。
画像分類の問題を解くことにより,連続分数の有界性の有用性を示す。
回帰ラインの連続分数を用いた画像のFashion-MNISTデータセットに推定されたパラメータは、ばらつきが少なく、急速に収束し、線形画像よりも精度が高い。
さらに、この多次元パラメトリック推定問題は、継続する分数のパラメータと平面プロットに現れるパターンを用いて、$xy-$平面上で表現することができる。
関連論文リスト
- An N-Point Linear Solver for Line and Motion Estimation with Event Cameras [45.67822962085412]
イベントカメラは、主にエッジ(強い勾配によって形成される)に応答する。
近年の研究では、一直線で生成された事象は、時空体積の多様体を記述する新しい制約を満たすことが示されている。
適切な線形パラメトリゼーションにより、この制約系は未知数において実際に線型であることが示される。
論文 参考訳(メタデータ) (2024-04-01T00:47:02Z) - On the Convergence of Gradient Descent for Large Learning Rates [55.33626480243135]
固定ステップサイズを使用すると収束が不可能であることを示す。
正方形損失を持つ線形ニューラルネットワークの場合,これを証明した。
また、勾配に対するリプシッツ連続性のような強い仮定を必要とせず、より一般的な損失に対する収束の不可能性も証明する。
論文 参考訳(メタデータ) (2024-02-20T16:01:42Z) - Estimation Sample Complexity of a Class of Nonlinear Continuous-time Systems [0.0]
本稿では, 大規模非線形系のパラメータ推定法について述べる。
正規化線形回帰を用いて力学を直接反転させることにより未知パラメータを解く手法は、微分フィルタと正規化最小二乗の新たな設計と解析のアイデアに基づいている。
論文 参考訳(メタデータ) (2023-12-08T21:42:11Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - MinMax Networks [0.0]
本稿では,連続的な分数次線形関数に対する離散的なMinMax学習手法について述べる。
制約付き片次線形関数学習の収束速度は、各局所線型領域の指数収束率と等価であることを示す。
論文 参考訳(メタデータ) (2023-06-15T16:30:33Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Robust Differentiable SVD [117.35644933471401]
対称行列の固有分解は多くのコンピュータビジョンアルゴリズムの中心にある。
不安定性は互いに近い固有値の存在によって生じる。
SVD勾配のテイラー展開は、反復過程に依存することなくPIを用いて得られる勾配と理論的に等価であることを示す。
論文 参考訳(メタデータ) (2021-04-08T15:04:15Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - The Implicit Regularization of Stochastic Gradient Flow for Least
Squares [24.976079444818552]
最小二乗回帰の基本問題に適用したミニバッチ勾配勾配の暗黙正則化について検討した。
我々は勾配流と呼ばれる勾配降下と同じモーメントを持つ連続時間微分方程式を利用する。
チューニングパラメータ $lambda = 1/t$ で、リッジレグレッションを越えて、時間 $t$ での勾配フローの過剰なリスクに制限を与えます。
論文 参考訳(メタデータ) (2020-03-17T16:37:25Z) - Learning Unitaries by Gradient Descent [12.354076490479516]
我々は、交互列の時間パラメータの勾配勾配から$Ud)$でユニタリ変換を学習する。
勾配$パラメータが少ない場合、勾配降下は準最適解に収束するが、$d2$パラメータ以上の場合、勾配降下は最適解に収束する。
論文 参考訳(メタデータ) (2020-01-31T15:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。