論文の概要: Evolutionary System 2 Reasoning: An Empirical Proof
- arxiv url: http://arxiv.org/abs/2512.05760v1
- Date: Fri, 05 Dec 2025 14:47:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.065124
- Title: Evolutionary System 2 Reasoning: An Empirical Proof
- Title(参考訳): 進化的システム2:実証的証明
- Authors: Zeyuan Ma, Wenqi Huang, Guo-Huan Song, Hongshu Guo, Sijie Ma, Zhiguang Cao, Yue-Jiao Gong,
- Abstract要約: 本稿では,強力な推論能力を持つ個人を探索するための進化的推論最適化(ERO)フレームワークを提案する。
代表的なテストスーツの実験に基づいて、2つの驚くべき経験的発見を主張する。
- 参考スコア(独自算出の注目度): 36.11770491397399
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine intelligence marks the ultimate dream of making machines' intelligence comparable to human beings. While recent progress in Large Language Models (LLMs) show substantial specific skills for a wide array of downstream tasks, they more or less fall shorts in general intelligence. Following correlation between intelligence and system 2 reasoning (slow thinking), in this paper, we aim to answering a worthwhile research question: could machine intelligence such as LLMs be evolved to acquire reasoning ability (not specific skill) just like our human beings? To this end, we propose evolutionary reasoning optimization (ERO) framework which performs survival of the fittest over a population of LLMs to search for individual with strong reasoning ability. Given a reasoning task, ERO first initializes multiple LLMs as a population, after which an evolutionary strategy evolves the population to maximize quantified reasoning score of the best individual. Based on experiments on representative testsuites, we claim two surprising empirical discoveries: i) the latest LLMs such as GPT-5 still show limited system 2 reasoning ability; ii) with simple evolution-loop of ERO, a relatively weak model (Qwen-7B) could be enhanced to emerge powerful reasoning ability. Our project can be accessed at https://github.com/MetaEvo/ERO for reproduction needs.
- Abstract(参考訳): マシンインテリジェンスは、マシンのインテリジェンスを人間に匹敵する究極の夢だ。
近年のLarge Language Models (LLM) の進歩は、幅広い下流タスクにおいて、かなり具体的なスキルを示しているが、一般的な知性では、多かれ少なかれ短命である。
インテリジェンスとシステム2推論(スロー思考)の相関に従えば、LLMのようなマシンインテリジェンスを進化させて、人間のように推論能力(特定のスキルではない)を得ることができるのか?
そこで本研究では,LLM の個体群に対する適合性評価を継続し,高い推論能力を持つ個体を探索する進化的推論最適化(ERO)フレームワークを提案する。
推論タスクが与えられた後、EROはまず複数のLSMを個体群として初期化し、その後、進化戦略によって個体群を進化させ、最高の個体の定量化推論スコアを最大化する。
代表的なテストスーツの実験に基づいて、2つの驚くべき経験的発見を主張する。
一 GPT-5 のような最新の LLM は、なおもシステム2の推論能力に限界がある。
二 比較的弱いモデル(Qwen-7B)をEROの単純な進化ループで拡張し、強力な推論能力を得ることができた。
私たちのプロジェクトは、再生のためにhttps://github.com/MetaEvo/EROでアクセスできます。
関連論文リスト
- From System 1 to System 2: A Survey of Reasoning Large Language Models [72.87412996793957]
基礎的な大規模言語モデルは、迅速な意思決定では優れているが、複雑な推論には深みがない。
OpenAIのo1/o3とDeepSeekのR1は、数学やコーディングといった分野のエキスパートレベルのパフォーマンスを実証している。
論文 参考訳(メタデータ) (2025-02-24T18:50:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。