論文の概要: Active Learning Improves Performance on Symbolic RegressionTasks in
StackGP
- arxiv url: http://arxiv.org/abs/2202.04708v1
- Date: Wed, 9 Feb 2022 20:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 15:54:28.942411
- Title: Active Learning Improves Performance on Symbolic RegressionTasks in
StackGP
- Title(参考訳): StackGPのシンボリック回帰タスクにおけるアクティブ学習によるパフォーマンス向上
- Authors: Nathan Haut, Wolfgang Banzhaf, Bill Punch
- Abstract要約: StackGPを用いた記号回帰のための能動的学習手法を提案する。
我々はFeynman AIベンチマークを用いて,少ないデータポイントを用いて適切なモデルを見つけるための手法の能力を検証した。
- 参考スコア(独自算出の注目度): 2.7685408681770247
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we introduce an active learning method for symbolic regression
using StackGP. The approach begins with a small number of data points for
StackGP to model. To improve the model the system incrementally adds a data
point such that the new point maximizes prediction uncertainty as measured by
the model ensemble. Symbolic regression is re-run with the larger data set.
This cycle continues until the system satisfies a termination criterion. We use
the Feynman AI benchmark set of equations to examine the ability of our method
to find appropriate models using fewer data points. The approach was found to
successfully rediscover 72 of the 100 Feynman equations using as few data
points as possible, and without use of domain expertise or data translation.
- Abstract(参考訳): 本稿では,stackgpを用いた記号回帰のアクティブ学習手法を提案する。
このアプローチは、stackgpがモデル化するための少数のデータポイントから始まる。
モデルを改善するために、新しいポイントがモデルアンサンブルで測定された予測の不確実性を最大化するデータポイントを漸進的に追加する。
シンボリック回帰はより大きなデータセットで再実行される。
このサイクルは、システムが終了基準を満たすまで続く。
我々はFeynman AIベンチマークを用いて,少ないデータポイントを用いて適切なモデルを見つけるための手法の能力を検証した。
このアプローチは、可能な限り少ないデータポイントを使用して、ドメインの専門知識やデータ変換を使わずに、100個のファインマン方程式の72個の再発見に成功した。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Online Symbolic Regression with Informative Query [23.684346197490605]
我々はtextbfonline textbfsymbolic textbfregression のためのフレームワーク QUOSR を提案する。
各ステップで、QUOSRは履歴データポイントを受け取り、新しい$vx$を生成し、シンボル式をクエリして対応する$y$を取得する。
情報化データを生成することにより,QUOSRは現代的シンボリックレグレッション手法を促進することができることを示す。
論文 参考訳(メタデータ) (2023-02-21T09:13:48Z) - Mutual Information Learned Regressor: an Information-theoretic Viewpoint
of Training Regression Systems [10.314518385506007]
回帰問題を解くための既存の慣習は平均二乗誤差(MSE)最小化アプローチである。
近年,Yiらは相互情報に基づく教師あり学習フレームワークを提案し,ラベルエントロピー正規化を導入した。
本稿では,相互情報に基づく教師あり学習フレームワークにおける回帰について検討する。
論文 参考訳(メタデータ) (2022-11-23T03:43:22Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Making Look-Ahead Active Learning Strategies Feasible with Neural
Tangent Kernels [6.372625755672473]
本稿では,仮説的ラベル付き候補データを用いた再学習に基づく,能動的学習獲得戦略の近似手法を提案する。
通常、これはディープ・ネットワークでは実現できないが、我々はニューラル・タンジェント・カーネルを用いて再トレーニングの結果を近似する。
論文 参考訳(メタデータ) (2022-06-25T06:13:27Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Inference of stochastic time series with missing data [5.7656096606054374]
時系列からダイナミクスを推定することは、データ分析において重要な目的である。
E-stepは欠落したデータポイントを復元し、M-stepは基盤となるネットワークモデルを推測する。
観測されたデータポイントと欠落したデータポイントの整合性を求めることは、効果的な停止基準となる。
論文 参考訳(メタデータ) (2021-01-28T04:56:59Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - AI Feynman 2.0: Pareto-optimal symbolic regression exploiting graph
modularity [8.594811303203581]
本稿では,Pareto-Optimal式にデータを適合させようとする記号回帰法の改良について述べる。
これは、通常、ノイズや悪いデータに対して、桁違いに堅牢であることによって、過去の最先端を改善する。
ニューラルネットワークの勾配特性から一般化対称性を発見する手法を開発した。
論文 参考訳(メタデータ) (2020-06-18T18:01:19Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Optimal Feature Manipulation Attacks Against Linear Regression [64.54500628124511]
本稿では,データセットに慎重に設計した有害なデータポイントを付加したり,元のデータポイントを修正したりすることで,線形回帰による係数の操作方法について検討する。
エネルギー予算を考慮し, 目標が指定された回帰係数を1つ変更する場合に, 最適毒素データ点の閉形式解をまず提示する。
次に、攻撃者が1つの特定の回帰係数を変更しつつ、他をできるだけ小さく変更することを目的とした、より困難なシナリオに分析を拡張します。
論文 参考訳(メタデータ) (2020-02-29T04:26:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。