論文の概要: The Environmental Discontinuity Hypothesis for Down-Sampled Lexicase
Selection
- arxiv url: http://arxiv.org/abs/2205.15931v1
- Date: Tue, 31 May 2022 16:21:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 14:44:13.284152
- Title: The Environmental Discontinuity Hypothesis for Down-Sampled Lexicase
Selection
- Title(参考訳): ダウンサンプリングレキシケース選択のための環境不連続仮説
- Authors: Ryan Boldi, Thomas Helmuth, Lee Spector
- Abstract要約: ダウンサンプリングは、レキシケース親選択技術を利用した遺伝的プログラミング(GP)に有効であることが証明された。
我々は、世代毎に行われるランダムサンプリングが不連続を引き起こし、人口が変動する環境に適応できないという仮説を立てた。
環境変化を増進させることは、単純なランダムなダウンサンプリングよりも、プログラム合成問題を解くための進化的ソリューションにとって、それほど良くないことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Down-sampling training data has long been shown to improve the generalization
performance of a wide range of machine learning systems. Recently,
down-sampling has proved effective in genetic programming (GP) runs that
utilize the lexicase parent selection technique. Although this down-sampling
procedure has been shown to significantly improve performance across a variety
of problems, it does not seem to do so due to encouraging adaptability through
environmental change. We hypothesize that the random sampling that is performed
every generation causes discontinuities that result in the population being
unable to adapt to the shifting environment. We investigate modifications to
down-sampled lexicase selection in hopes of promoting incremental environmental
change to scaffold evolution by reducing the amount of jarring discontinuities
between the environments of successive generations. In our empirical studies,
we find that forcing incremental environmental change is not significantly
better for evolving solutions to program synthesis problems than simple random
down-sampling. In response to this, we attempt to exacerbate the hypothesized
prevalence of discontinuities by using only disjoint down-samples to see if it
hinders performance. We find that this also does not significantly differ from
the performance of regular random down-sampling. These negative results raise
new questions about the ways in which the composition of sub-samples, which may
include synonymous cases, may be expected to influence the performance of
machine learning systems that use down-sampling.
- Abstract(参考訳): ダウンサンプリングトレーニングデータにより、幅広い機械学習システムの一般化性能が向上することが長年に渡り示されている。
近年,レキシケース親選択手法を用いた遺伝的プログラミング(gp)において,ダウンサンプリングが有効であることが証明されている。
このダウンサンプリング手法は, 様々な問題における性能向上に有効であることが示されているが, 環境変化による適応性向上には寄与しないと考えられる。
我々は、世代毎に行われるランダムサンプリングが不連続を引き起こし、人口が変動する環境に適応できないという仮説を立てた。
本研究では, 連続する環境間のジャリング不連続性を低減し, 足場進化への漸進的な環境変化を促進すべく, ダウンサンプリングレキシケース選択の修正について検討した。
実験では, 単純なランダムなダウンサンプリングよりも, プログラム合成問題の解を進化させる上で, 漸進的な環境変化を強制することが, 著しく良いものではないことを見出した。
そこで本研究では,非結合型ダウンサンプルのみを用いて,不連続の仮説を悪化させ,パフォーマンスを阻害するかどうかを検証しようとする。
また、これは通常のランダムダウンサンプリングの性能と大きく異なるものではない。
これらの否定的な結果は、サブサンプルの構成(同義語を含むかもしれない)がダウンサンプリングを使用する機械学習システムの性能にどのような影響を与えるかという新たな疑問を提起する。
関連論文リスト
- Analyzing the Interaction Between Down-Sampling and Selection [52.77024349608834]
遺伝的プログラミングシステムは、選択のための候補解の品質を評価するために、しばしば大きなトレーニングセットを使用する。
ダウンサンプリングトレーニングセットは、幅広いアプリケーション領域における評価の計算コストを低減するために、長い間使われてきた。
論文 参考訳(メタデータ) (2023-04-14T12:21:19Z) - Reweighted Mixup for Subpopulation Shift [63.1315456651771]
サブポピュレーションシフトは、多くの実世界のアプリケーションに存在し、同じサブポピュレーショングループを含むが異なるサブポピュレーション比率を持つトレーニングとテストの分布を指す。
重要度再重み付けは、サブポピュレーションシフトを処理する古典的で効果的な方法である。
我々は、オーバーフィッティング問題を緩和するために、reweighted mixupと呼ばれるシンプルで実用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-09T03:44:50Z) - Informed Down-Sampled Lexicase Selection: Identifying productive
training cases for efficient problem solving [40.683810697551166]
遺伝的プログラミング(GP)は、しばしば大きなトレーニングセットを使用し、選択中にすべてのトレーニングケースですべての個人を評価する必要がある。
ランダムダウンサンプリングレキシケースの選択は、トレーニングケースのランダムなサブセットのみの個人を評価し、同じプログラム実行量でより多くの個人を探索できるようにする。
Informed Down-Sampled Lexicase Selectionでは、人口統計を用いて、より明瞭で情報的な訓練ケースを含むダウンサンプルを構築します。
論文 参考訳(メタデータ) (2023-01-04T08:47:18Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - UMIX: Improving Importance Weighting for Subpopulation Shift via
Uncertainty-Aware Mixup [44.0372420908258]
サブポピュレーションシフトは、多くの現実世界の機械学習アプリケーションに大きく存在する。
重要度再重み付けは、サブポピュレーションシフト問題に対処するための通常の方法である。
オーバーフィッティング問題を緩和するために,不確実性を考慮した混合(Umix)を提案する。
論文 参考訳(メタデータ) (2022-09-19T11:22:28Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Problem-solving benefits of down-sampled lexicase selection [0.20305676256390928]
ダウンサンプルのレキシケース選択の主な利点は、進化過程が同じ計算予算内でより多くの個人を調べることができるという事実から来ています。
しかし、ダウンサンプリングが役立つ理由は、まだ完全には理解されていない。
論文 参考訳(メタデータ) (2021-06-10T23:42:09Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Robust Sampling in Deep Learning [62.997667081978825]
ディープラーニングは、オーバーフィッティングを減らし、一般化を改善するために正規化メカニズムを必要とする。
分散ロバスト最適化に基づく新しい正規化手法によりこの問題に対処する。
トレーニング中は、最悪のサンプルが最適化に最も貢献するものであるように、その正確性に応じてサンプルの選択が行われる。
論文 参考訳(メタデータ) (2020-06-04T09:46:52Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。