論文の概要: Lexicase Selection at Scale
- arxiv url: http://arxiv.org/abs/2208.10719v1
- Date: Tue, 23 Aug 2022 03:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:18:25.814043
- Title: Lexicase Selection at Scale
- Title(参考訳): スケールでの語彙選択
- Authors: Li Ding, Ryan Boldi, Thomas Helmuth, Lee Spector
- Abstract要約: 語彙選択(Lexicase selection)は、ランダムにシャッフルされたデータストリームで個々のテストケースを評価する意味認識親選択法である。
語彙選択とそのバリエーションの潜在的な欠点の1つは、選択手順が単一のデータストリームでトレーニングケースを評価する必要があることである。
そこで本研究では,レキシケース選択と重み付きシャッフルを組み合わせた高速レキシケース選択法を提案する。
- 参考スコア(独自算出の注目度): 5.4968949435821735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lexicase selection is a semantic-aware parent selection method, which
assesses individual test cases in a randomly-shuffled data stream. It has
demonstrated success in multiple research areas including genetic programming,
genetic algorithms, and more recently symbolic regression and deep learning.
One potential drawback of lexicase selection and its variants is that the
selection procedure requires evaluating training cases in a single data stream,
making it difficult to handle tasks where the evaluation is computationally
heavy or the dataset is large-scale, e.g., deep learning. In this work, we
investigate how the weighted shuffle methods can be employed to improve the
efficiency of lexicase selection. We propose a novel method, fast lexicase
selection, which incorporates lexicase selection and weighted shuffle with
partial evaluation. Experiments on both classic genetic programming and deep
learning tasks indicate that the proposed method can significantly reduce the
number of evaluation steps needed for lexicase selection to select an
individual, improving its efficiency while maintaining the performance.
- Abstract(参考訳): 語彙選択は、ランダムにシャッフルされたデータストリームで個々のテストケースを評価する意味認識親選択法である。
遺伝的プログラミング、遺伝的アルゴリズム、最近では記号的回帰と深層学習など、複数の研究領域で成功している。
レキシケース選択とそのバリエーションの潜在的な欠点の1つは、選択手順が単一のデータストリームでトレーニングケースを評価する必要があるため、評価が計算量が多いか、データセットが大規模、例えばディープラーニングのようなタスクを処理するのが困難である。
本研究では,重み付きシャッフル法を用いてレキシケース選択の効率を向上させる方法について検討する。
本稿では,レキシケース選択と重み付きシャッフルを部分的評価に組み込んだ新しい手法である高速レキシケース選択を提案する。
古典的遺伝的プログラミングと深層学習の両課題の実験から,提案手法は個人の選択に必要な評価ステップの数を著しく削減し,性能を維持しながら効率を向上することを示す。
関連論文リスト
- Lexicase-based Selection Methods with Down-sampling for Symbolic Regression Problems: Overview and Benchmark [0.8602553195689513]
本稿では, 広範囲の記号回帰問題に対して, 関連する語彙に基づく選択法と組み合わせて, ランダムかつ情報的なダウンサンプリングを評価する。
評価予算について,エプシロン・レキシケース選択とランダムあるいはインフォメーション・ダウンサンプリングの組み合わせにより,他の手法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2024-07-31T14:26:22Z) - Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - DALex: Lexicase-like Selection via Diverse Aggregation [6.394522608656896]
DALex(Diversely Aggregated Lexicase)は,レキシケース選択とその緩和された変種に対して,大幅な高速化を実現することを示す。
プログラム合成, 深層学習, 記号回帰, 学習システムの結果から, DALexは語彙選択とその緩和された変種に対して, 大幅な高速化を実現することが示された。
論文 参考訳(メタデータ) (2024-01-23T01:20:15Z) - A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning [9.596923373834093]
本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
論文 参考訳(メタデータ) (2024-01-15T05:32:35Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - Probabilistic Lexicase Selection [6.177959045971966]
本稿では,レキシケード選択の確率分布を効率的に近似する新しい親選択アルゴリズムである確率論的レキシケード選択(プレキシケード選択)を導入する。
提案手法は,セマンティック・アウェア選択法として優れた問題解決能力を示すだけでなく,選択プロセスの確率的表現の利点も示している。
論文 参考訳(メタデータ) (2023-05-19T13:57:04Z) - Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
Problem [8.281391209717105]
本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
論文 参考訳(メタデータ) (2022-09-12T08:52:26Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Online Active Model Selection for Pre-trained Classifiers [72.84853880948894]
我々は,任意のラウンドにおいて高い確率で最良のモデルをラベル付けし,出力する情報的サンプルを積極的に選択するオンライン選択的サンプリング手法を設計する。
我々のアルゴリズムは、敵とストリームの両方のオンライン予測タスクに利用できる。
論文 参考訳(メタデータ) (2020-10-19T19:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。