論文の概要: Learning-at-Criticality in Large Language Models for Quantum Field Theory and Beyond
- arxiv url: http://arxiv.org/abs/2506.03703v1
- Date: Wed, 04 Jun 2025 08:35:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.235337
- Title: Learning-at-Criticality in Large Language Models for Quantum Field Theory and Beyond
- Title(参考訳): 量子場理論とそれを超える大規模言語モデルにおける学習と批判性
- Authors: Xiansheng Cai, Sihan Hu, Tao Wang, Yuan Huang, Pan Zhang, Youjin Deng, Kun Chen,
- Abstract要約: 本稿では,大規模言語モデルを鋭い学習遷移にチューニングする強化学習スキームである,臨界学習(LaC)を紹介する。
量子場論におけるLaCの実証は、記号的松原和のいくつかの例を用いて、LaCによって臨界点に調整された。
- 参考スコア(独自算出の注目度): 9.995295720476953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fundamental physics often confronts complex symbolic problems with few guiding exemplars or established principles. While artificial intelligence (AI) offers promise, its typical need for vast datasets to learn from hinders its use in these information-scarce frontiers. We introduce learning at criticality (LaC), a reinforcement learning (RL) scheme that tunes Large Language Models (LLMs) to a sharp learning transition, addressing this information scarcity. At this transition, LLMs achieve peak generalization from minimal data, exemplified by 7-digit base-7 addition -- a test of nontrivial arithmetic reasoning. To elucidate this peak, we analyze a minimal concept-network model (CoNet) designed to capture the essence of how LLMs might link tokens. Trained on a single exemplar, this model also undergoes a sharp learning transition. This transition exhibits hallmarks of a second-order phase transition, notably power-law distributed solution path lengths. At this critical point, the system maximizes a ``critical thinking pattern" crucial for generalization, enabled by the underlying scale-free exploration. This suggests LLMs reach peak performance by operating at criticality, where such explorative dynamics enable the extraction of underlying operational rules. We demonstrate LaC in quantum field theory: an 8B-parameter LLM, tuned to its critical point by LaC using a few exemplars of symbolic Matsubara sums, solves unseen, higher-order problems, significantly outperforming far larger models. LaC thus leverages critical phenomena, a physical principle, to empower AI for complex, data-sparse challenges in fundamental physics.
- Abstract(参考訳): 基礎物理学はしばしば複雑な象徴的な問題に直面するが、導いた先駆者や確立された原理はほとんど存在しない。
人工知能(AI)は約束を提供するが、その典型的なニーズは、膨大なデータセットがこれらの情報収集フロンティアでの使用を妨げることにある。
本稿では,大規模言語モデル(LLM)を鋭い学習遷移にチューニングする強化学習(RL)方式である臨界学習(LaC)を紹介し,この情報不足に対処する。
この移行において、LLMは最小限のデータからピーク一般化を達成し、非自明な算術的推論のテストである7桁のbase-7加算によって例示される。
このピークを解明するために、LLMがトークンをリンクする方法の本質を捉えるために設計された最小の概念ネットワークモデル(CoNet)を分析します。
1つの模範に基づいてトレーニングされたこのモデルは、鋭い学習移行も行います。
この遷移は、2階相転移、特にパワー・ロー分散解道長の目印を示す。
この臨界点において、システムは「批判的思考パターン」を最大化し、基礎となるスケールフリー探索によって実現する。
このことは、LCMが臨界時の操作によってピーク性能に達することを示唆しており、そのような爆発的なダイナミクスは基礎となる運用ルールの抽出を可能にする。
量子場理論においてLaCを実証する: 8BパラメータのLLMは、象徴的松原和のいくつかの例を用いてLaCによって臨界点に調整され、目に見えない高次問題を解き、はるかに大きなモデルよりもはるかに優れている。
そのためLaCは、物理原理である臨界現象を活用し、基礎物理学における複雑なデータスパース課題にAIを力づける。
関連論文リスト
- Exploring the Effect of Reinforcement Learning on Video Understanding: Insights from SEED-Bench-R1 [53.894789613838654]
ビデオ理解におけるMLLMのポストトレーニング手法を評価するためのベンチマークであるSEED-Bench-R1を紹介する。
複雑な現実世界のビデオや、複数の質問の形式での複雑な日常的な計画タスクも含んでいる。
Qwen2-VL-Instruct-7Bをベースモデルとして、RLと教師付き微調整(SFT)を比較した。
我々の詳細な分析では、RLは視覚知覚を増強するが、しばしばコヒーレント推論連鎖を減少させる。
論文 参考訳(メタデータ) (2025-03-31T17:55:23Z) - Provably Transformers Harness Multi-Concept Word Semantics for Efficient In-Context Learning [53.685764040547625]
トランスフォーマーベースの大規模言語モデル(LLM)は、卓越した創造力と出現能力を示している。
この研究は、トランスフォーマーが単語のマルチコンセプトセマンティクスをどのように活用し、強力なICLと優れたアウト・オブ・ディストリビューションICL能力を実現するかを示すための数学的解析を提供する。
論文 参考訳(メタデータ) (2024-11-04T15:54:32Z) - RLSF: Reinforcement Learning via Symbolic Feedback [11.407319705797242]
証明フィードバック(RLSF)による強化学習(Reinforcement Learning)と呼ばれる新しい微調整パラダイムを提案する。
RLSFでは、微調整されたLLMはRLエージェントと見なされ、環境は推論やドメイン知識ツールへのアクセスが可能である。
RLSFに基づくLLMの微調整は、5つの異なるアプリケーションにおいて従来のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T18:49:59Z) - Extending Token Computation for LLM Reasoning [5.801044612920816]
大規模言語モデル(LLM)は、自然言語処理の進歩において重要な要素である。
LLMは、非効率な注意分布のため、複雑な推論タスクに苦しむことが多い。
本稿では,アテンション機構の最適化を利用して,計算トークンをChain-of-Thoughtプロセスで拡張する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T03:23:58Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。