論文の概要: An arithmetic method algorithm optimizing k-nearest neighbors compared to regression algorithms and evaluated on real world data sources
- arxiv url: http://arxiv.org/abs/2602.08577v1
- Date: Mon, 09 Feb 2026 12:17:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.21689
- Title: An arithmetic method algorithm optimizing k-nearest neighbors compared to regression algorithms and evaluated on real world data sources
- Title(参考訳): 回帰アルゴリズムと比較してk-アネレスト近傍を最適化する算術法アルゴリズムと実世界のデータソースによる評価
- Authors: Theodoros Anagnostopoulos, Evanthia Zervoudi, Christos Anagnostopoulos, Apostolos Christopoulos, Bogdan Wierzbinski,
- Abstract要約: k-Nearest Neighbors (k-NN) は、一般的な非パラメトリック回帰アルゴリズムである。
AMA(Arithmetic Method Algorithm)は,導入した算術法の効率を評価するためのアルゴリズムである。
AMAの可能性を応用したk-NNの最適化手法として,AMRアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.7782261079530317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear regression analysis focuses on predicting a numeric regressand value based on certain regressor values. In this context, k-Nearest Neighbors (k-NN) is a common non-parametric regression algorithm, which achieves efficient performance when compared with other algorithms in literature. In this research effort an optimization of the k-NN algorithm is proposed by exploiting the potentiality of an introduced arithmetic method, which can provide solutions for linear equations involving an arbitrary number of real variables. Specifically, an Arithmetic Method Algorithm (AMA) is adopted to assess the efficiency of the introduced arithmetic method, while an Arithmetic Method Regression (AMR) algorithm is proposed as an optimization of k-NN adopting the potentiality of AMA. Such algorithm is compared with other regression algorithms, according to an introduced optimal inference decision rule, and evaluated on certain real world data sources, which are publicly available. Results are promising since the proposed AMR algorithm has comparable performance with the other algorithms, while in most cases it achieves better performance than the k-NN. The output results indicate that introduced AMR is an optimization of k-NN.
- Abstract(参考訳): 線形回帰分析は、ある回帰値に基づいて数値回帰値を予測することに焦点を当てる。
この文脈では、k-Nearest Neighbors (k-NN) は一般的な非パラメトリック回帰アルゴリズムであり、文学における他のアルゴリズムと比較して効率的な性能を実現する。
本研究は,実変数の任意の個数を含む線形方程式に対する解を提供するため,導入した算術法のポテンシャルを利用してk-NNアルゴリズムの最適化を提案する。
具体的には、導入した算術法の効率を評価するために、AMA(Arithmetic Method Regression)アルゴリズムが採用され、AMAの可能性を取り入れたk-NNの最適化として、AMR(Arithmetic Method Regression)アルゴリズムが提案されている。
このようなアルゴリズムは他の回帰アルゴリズムと比較され、導入した最適推論決定規則に従って、公開されている特定の実世界のデータソースで評価される。
提案したAMRアルゴリズムは他のアルゴリズムと同等の性能を持つが、ほとんどの場合、k-NNよりも優れた性能を実現する。
その結果,AMRはk-NNの最適化であることがわかった。
関連論文リスト
- Preference-Based Gradient Estimation for ML-Guided Approximate Combinatorial Optimization [15.102119312523696]
組合せ最適化(CO)の問題は、医学、物流、製造など幅広い領域で発生する。
本研究では,CO の非学習近似アルゴリズムを学習ベースで拡張する手法を提案する。
本手法は,近似アルゴリズムをブラックボックスとして扱う新しい勾配推定法を用いて,自己教師付き方式でエンドツーエンドに学習する。
論文 参考訳(メタデータ) (2025-02-26T18:23:07Z) - A Full Adagrad algorithm with O(Nd) operations [4.389938747401259]
この研究は大規模アプリケーションのための効率的で実用的なアルゴリズムを提供する。
この革新的な戦略は、一般的にフルマトリックスメソッドに関連する複雑さとリソース要求を著しく削減する。
論文 参考訳(メタデータ) (2024-05-03T08:02:08Z) - Conditional Mean and Variance Estimation via \textit{k}-NN Algorithm with Automated Variance Selection [9.943131787772323]
条件平均と分散度を共同で推定するための新しいテクストリック・アレスト・ニアレスト回帰法(textitk-NN)を提案する。
提案アルゴリズムは,古典的非パラメトリックテクトitk-NNモデルの計算効率と多様体学習能力を保持する。
論文 参考訳(メタデータ) (2024-02-02T18:54:18Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Regret Bounds for Expected Improvement Algorithms in Gaussian Process
Bandit Optimization [63.8557841188626]
期待されている改善(EI)アルゴリズムは、不確実性の下で最適化するための最も一般的な戦略の1つである。
本稿では,GP予測平均を通した標準既存値を持つEIの変種を提案する。
我々のアルゴリズムは収束し、$mathcal O(gamma_TsqrtT)$の累積後悔境界を達成することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:17:53Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Benchmarking Simulation-Based Inference [5.3898004059026325]
確率的モデリングの最近の進歩は、確率の数値的評価を必要としないシミュレーションに基づく推論アルゴリズムを多数もたらした。
推論タスクと適切なパフォーマンス指標を備えたベンチマークを,アルゴリズムの初期選択とともに提供する。
性能指標の選択は重要であり、最先端のアルゴリズムでさえ改善の余地があり、逐次推定によりサンプリング効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-01-12T18:31:22Z) - Average-Reward Off-Policy Policy Evaluation with Function Approximation [66.67075551933438]
平均報酬MDPの関数近似によるオフポリシ政策評価を検討する。
ブートストラップは必要であり、オフポリシ学習とFAと一緒に、致命的なトライアドをもたらす。
そこで本研究では,勾配型tdアルゴリズムの成功を再現する2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-08T00:43:04Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。