論文の概要: Model Discovery with Grammatical Evolution. An Experiment with Prime Numbers
- arxiv url: http://arxiv.org/abs/2505.12440v1
- Date: Sun, 18 May 2025 14:22:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.237884
- Title: Model Discovery with Grammatical Evolution. An Experiment with Prime Numbers
- Title(参考訳): 文法進化によるモデル発見 : 素数を用いた実験
- Authors: Jakub Skrzyński, Dominik Sepioło, Antoni Ligęza,
- Abstract要約: 機械学習は、入力出力データのみに基づいて効率的な決定と予測モデルを生成する。
本稿では,そのようなモデルを生成する非自明な実験について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine Learning produces efficient decision and prediction models based on input-output data only. Such models have the form of decision trees or neural nets and are far from transparent analytical models, based on mathematical formulas. Analytical model discovery requires additional knowledge and may be performed with Grammatical Evolution. Such models are transparent, concise, and have readable components and structure. This paper reports on a non-trivial experiment with generating such models.
- Abstract(参考訳): 機械学習は、入力出力データのみに基づいて効率的な決定と予測モデルを生成する。
このようなモデルは決定木やニューラルネットの形をしており、数学的公式に基づく透明な分析モデルとはかけ離れている。
分析モデル発見にはさらなる知識が必要であり、文法的進化によって実行することができる。
このようなモデルは透明で簡潔で、読みやすいコンポーネントと構造を持っている。
本稿では,そのようなモデルを生成する非自明な実験について報告する。
関連論文リスト
- Knowledge Fusion By Evolving Weights of Language Models [5.354527640064584]
本稿では,複数のモデルを統一モデルに統合するアプローチについて検討する。
本稿では進化的アルゴリズムに触発されたEvolverという知識融合手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T02:12:34Z) - Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Breiman's two cultures: You don't have to choose sides [10.695407438192527]
Breiman氏の古典的な論文は、2つの文化の選択肢としてデータ分析をキャストする。
データモデラーは、データ解析によく理解された理論的特性を持つ単純な解釈可能なモデルを使用する。
アルゴリズムモデラーは予測精度を優先順位付けし、より柔軟な関数近似を用いてデータを分析する。
論文 参考訳(メタデータ) (2021-04-25T17:58:46Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Cracking the Black Box: Distilling Deep Sports Analytics [17.35421731343764]
本稿では,スポーツ分析に応用した深層学習における精度と透明性のトレードオフについて論じる。
我々は、元のディープラーニングモデルの出力を模倣し、学習した知識を明示的な解釈可能な方法で表現する、シンプルで透明なモデルを構築します。
論文 参考訳(メタデータ) (2020-06-04T01:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。