論文の概要: Augmented Regression Models using Neurochaos Learning
- arxiv url: http://arxiv.org/abs/2505.12967v1
- Date: Mon, 19 May 2025 11:02:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.547367
- Title: Augmented Regression Models using Neurochaos Learning
- Title(参考訳): ニューロカオス学習を用いた強化回帰モデル
- Authors: Akhila Henry, Nithin Nagaraj,
- Abstract要約: 本稿では,ニューロカオス学習フレームワークから派生したトレーサミア特徴を従来の回帰アルゴリズムに統合した,ニューロカオス学習(NL)を用いた新しい回帰モデルを提案する。
提案手法は,10種類の実生活データセットと,$y = mx + c + epsilon$という形式の合成データセットを用いて評価した。
- 参考スコア(独自算出の注目度): 1.534667887016089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents novel Augmented Regression Models using Neurochaos Learning (NL), where Tracemean features derived from the Neurochaos Learning framework are integrated with traditional regression algorithms : Linear Regression, Ridge Regression, Lasso Regression, and Support Vector Regression (SVR). Our approach was evaluated using ten diverse real-life datasets and a synthetically generated dataset of the form $y = mx + c + \epsilon$. Results show that incorporating the Tracemean feature (mean of the chaotic neural traces of the neurons in the NL architecture) significantly enhances regression performance, particularly in Augmented Lasso Regression and Augmented SVR, where six out of ten real-life datasets exhibited improved predictive accuracy. Among the models, Augmented Chaotic Ridge Regression achieved the highest average performance boost (11.35 %). Additionally, experiments on the simulated dataset demonstrated that the Mean Squared Error (MSE) of the augmented models consistently decreased and converged towards the Minimum Mean Squared Error (MMSE) as the sample size increased. This work demonstrates the potential of chaos-inspired features in regression tasks, offering a pathway to more accurate and computationally efficient prediction models.
- Abstract(参考訳): 本研究では、ニューロカオス学習フレームワークから派生したトレーサミア特徴を従来の回帰アルゴリズム(線形回帰、リッジ回帰、ラッソ回帰、サポートベクトル回帰(SVR))と統合した、新しいAugmented Regression Model(NL)を提案する。
提案手法は,10種類の実生活データセットと,$y = mx + c + \epsilon$という形式の合成データセットを用いて評価した。
以上の結果から,Tracemean機能(NLアーキテクチャにおける神経細胞のカオス的神経トレースの意味)の導入は,特にAugmented Lasso RegressionとAugmented SVRでは,予測精度が向上した。
モデルの中で、Augmented Chaotic Ridge Regressionは平均的なパフォーマンス向上(11.35%)を達成した。
さらに、模擬データセット実験により、拡張モデルの平均正方形誤差(MSE)は、サンプルサイズが大きくなるにつれて一貫して減少し、最小正方形誤差(MMSE)に向かって収束することを示した。
この研究は、回帰タスクにおけるカオスにインスパイアされた機能の可能性を示し、より正確で計算学的に効率的な予測モデルへの経路を提供する。
関連論文リスト
- Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - ZeroShape: Regression-based Zero-shot Shape Reconstruction [56.652766763775226]
単一画像ゼロショット3次元形状再構成の問題点について検討する。
最近の研究は、3Dアセットの生成的モデリングを通してゼロショット形状復元を学習している。
我々はZeroShapeが最先端の手法よりも優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-12-21T01:56:34Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - Rank-N-Contrast: Learning Continuous Representations for Regression [28.926518084216607]
Rank-N-Contrast(RNC)は、ターゲット空間のランクに基づいて、サンプルを互いに対比することで、回帰の連続的な表現を学習するフレームワークである。
RNCは、学習された表現の望ましい順序を目標命令に従って保証する。
RNCは最先端のパフォーマンスを達成し、データ効率の向上、ターゲットの刺激に対する堅牢性、データの破損など、興味深い特性を強調している。
論文 参考訳(メタデータ) (2022-10-03T19:00:38Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。