論文の概要: A Study of Fitness Gains in Evolving Finite State Machines
- arxiv url: http://arxiv.org/abs/2310.13203v1
- Date: Fri, 20 Oct 2023 00:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 01:07:52.079071
- Title: A Study of Fitness Gains in Evolving Finite State Machines
- Title(参考訳): 進化する有限状態機械の適合性向上に関する研究
- Authors: Gabor Zoltai, Yue Xie, and Frank Neumann
- Abstract要約: 本稿では,FSM(Finite State Machines)の進化シナリオについて検討する。
サンプルとして提供される長いストリングは、一定の数のサンプルストリングに対して適合度を測定する際に、フィットネスゲインの速度を減少させることを示す。
より長い文字列からの付加情報は、正と負のサンプル文字列の空間のスペーサーカバレッジを補うのに十分ではないという推測を描いている。
- 参考スコア(独自算出の注目度): 9.671532595063175
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Among the wide variety of evolutionary computing models, Finite State
Machines (FSMs) have several attractions for fundamental research. They are
easy to understand in concept and can be visualised clearly in simple cases.
They have a ready fitness criterion through their relationship with Regular
Languages. They have also been shown to be tractably evolvable, even up to
exhibiting evidence of open-ended evolution in specific scenarios. In addition
to theoretical attraction, they also have industrial applications, as a
paradigm of both automated and user-initiated control. Improving the
understanding of the factors affecting FSM evolution has relevance to both
computer science and practical optimisation of control. We investigate an
evolutionary scenario of FSMs adapting to recognise one of a family of Regular
Languages by categorising positive and negative samples, while also being under
a counteracting selection pressure that favours fewer states. The results
appear to indicate that longer strings provided as samples reduce the speed of
fitness gain, when fitness is measured against a fixed number of sample
strings. We draw the inference that additional information from longer strings
is not sufficient to compensate for sparser coverage of the combinatorial space
of positive and negative sample strings.
- Abstract(参考訳): 様々な進化的コンピューティングモデルの中で、有限状態機械(FSM)は基礎研究にいくつかの魅力を持っている。
概念的には容易に理解でき、単純なケースではっきりと視覚化できる。
彼らは通常の言語との関係を通じてフィットネスの基準を満たしている。
それらは、特定のシナリオにおけるオープンエンド進化の証拠を示すことさえも、容易に進化可能であることが示されている。
理論的アトラクションに加えて、自動化とユーザ主導制御の両方のパラダイムとして、産業的な応用がある。
FSMの進化に影響を与える要因の理解を改善することは、コンピュータ科学と制御の実践的最適化の両方に関係している。
正・負のサンプルを分類することで、正規言語の一つの認識に適応するFSMの進化シナリオを考察するとともに、少ない状態を好む選択圧の反作用下でも検討する。
その結果, 一定の数のサンプルストリングに対して適合度を測定すると, 試料として提供される長いストリングが適合速度を低下させることがわかった。
より長い文字列からの付加情報は、正および負のサンプル文字列の組合せ空間のスペーサーカバレッジを補うのに十分でないと推測する。
関連論文リスト
- Toward Understanding In-context vs. In-weight Learning [50.24035812301655]
本研究は,文脈内学習の出現と消失を引き起こす簡易な分布特性を同定する。
そして、この研究を完全な大規模言語モデルに拡張し、自然言語プロンプトの様々なコレクションの微調整が、文脈内および重み付き学習の振る舞いをいかに引き出すかを示す。
論文 参考訳(メタデータ) (2024-10-30T14:09:00Z) - Evolving choice hysteresis in reinforcement learning: comparing the adaptive value of positivity bias and gradual perseveration [0.0]
多くの状況において, 肯定バイアスは進化的安定であり, 漸進的摂動の出現は体系的でなく, 頑健であることを示す。
以上の結果から, 環境特異的な方法で, バイアスが適応し, 進化によって選択できることが示唆された。
論文 参考訳(メタデータ) (2024-10-25T09:47:31Z) - Ultra-imbalanced classification guided by statistical information [24.969543903532664]
我々は,エンフルトラ不均衡分類(UIC)と呼ばれる新しい定式化を提案することによって,不均衡学習に対する集団レベルのアプローチをとる。
UICでは、無限のトレーニングサンプルが利用可能であっても、損失関数は異なる振る舞いをする。
UIC下でのデータ不均衡に対して確実に抵抗できる新しい学習目標であるTunable Boosting Lossを開発した。
論文 参考訳(メタデータ) (2024-09-06T08:07:09Z) - Negotiated Representations for Machine Mearning Application [0.0]
オーバーフィッティング(Overfitting)は、機械学習モデルが長時間トレーニングされ、提供されたトレーニングラベルに対するトレーニングサンプルの正確な適合度に過度にフォーカスされた場合に発生する現象である。
本稿では,事前に決定されたクラスラベルを用いて,サンプルの出力表現を交渉可能にすることによって,機械学習モデルの分類精度を高める手法を提案する。
論文 参考訳(メタデータ) (2023-11-19T19:53:49Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Intervention Generalization: A View from Factor Graph Models [7.117681268784223]
操作されたシステムの分布の因子化に関する最小限の仮定に基づいて、過去の実験から新しい条件への飛躍をいかに保証するかを詳しく検討する。
仮定された$textitinterventional Factor Model$ (IFM) は必ずしも情報であるとは限らないが、不測のコンバウンディングとフィードバックのメカニズムを明示的にモデル化する必要性を便利に抽象化する。
論文 参考訳(メタデータ) (2023-06-06T21:44:23Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Evaluating Distributional Distortion in Neural Language Modeling [81.83408583979745]
稀な事象の重みは、言語における分布の総確率質量のかなりの量を占める。
パープレキシティなどの標準言語モデリングメトリクスは、集約された言語モデル(LM)のパフォーマンスを定量化する。
自然言語を人工言語として訓練した生成モデルを用いた制御評価手法を開発した。
論文 参考訳(メタデータ) (2022-03-24T01:09:46Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Prequential MDL for Causal Structure Learning with Neural Networks [9.669269791955012]
ベイジアンネットワークの実用的スコアリング関数を導出するために,事前最小記述長の原理が利用できることを示す。
我々は、調整しなければならない事前やその他の正規化子を誘導するスパーシリティに頼ることなく、可塑性および擬似グラフ構造を得る。
本研究は, 適応速度から因果構造を推定する最近の研究と, 分布変化の源泉から観測結果が得られた場合の因果構造との関係について考察する。
論文 参考訳(メタデータ) (2021-07-02T22:35:21Z) - Parsimonious neural networks learn interpretable physical laws [77.34726150561087]
本稿では、ニューラルネットワークと進化的最適化を組み合わせたパシモニクスニューラルネットワーク(PNN)を提案し、精度とパシモニクスのバランスをとるモデルを求める。
アプローチのパワーと汎用性は、古典力学のモデルを開発し、基本特性から材料の融解温度を予測することによって実証される。
論文 参考訳(メタデータ) (2020-05-08T16:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。