論文の概要: Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning
- arxiv url: http://arxiv.org/abs/2602.13934v1
- Date: Sun, 15 Feb 2026 00:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.566881
- Title: Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning
- Title(参考訳): なぜコード、なぜ今なのか:学習可能性、計算可能性、そして機械学習の本当の限界
- Authors: Zhimin Zhao,
- Abstract要約: 本稿では,情報構造に基づく5段階の学習可能性階層を提案する。
機械学習の進歩の天井は、タスクが学習可能であるかどうかよりも、モデルのサイズに依存しない、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.38677478583601776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code generation has progressed more reliably than reinforcement learning, largely because code has an information structure that makes it learnable. Code provides dense, local, verifiable feedback at every token, whereas most reinforcement learning problems do not. This difference in feedback quality is not binary but graded. We propose a five-level hierarchy of learnability based on information structure and argue that the ceiling on ML progress depends less on model size than on whether a task is learnable at all. The hierarchy rests on a formal distinction among three properties of computational problems (expressibility, computability, and learnability). We establish their pairwise relationships, including where implications hold and where they fail, and present a unified template that makes the structural differences explicit. The analysis suggests why supervised learning on code scales predictably while reinforcement learning does not, and why the common assumption that scaling alone will solve remaining ML challenges warrants scrutiny.
- Abstract(参考訳): コード生成は強化学習よりも確実に進行している。
コードはあらゆるトークンに対して密で局所的で検証可能なフィードバックを提供するが、ほとんどの強化学習問題はそうではない。
このフィードバック品質の違いはバイナリではなく、グレード化されています。
本稿では、情報構造に基づく学習可能性の5段階階層を提案し、機械学習の進捗の天井は、タスクが学習可能であるかどうかよりもモデルサイズに依存しないと主張している。
この階層は、計算問題(表現性、計算可能性、学習可能性)の3つの性質の形式的な区別に依存している。
意味がどこに保持され、どこで失敗するかを含む、ペアワイズな関係を確立し、構造的な違いを明確にする統一されたテンプレートを提示します。
この分析は、強化学習がなければコード上で教師あり学習が予測可能であり、また、スケーリングのみが残りのMLの課題を解決するという一般的な仮定が精査される理由を示唆している。
関連論文リスト
- Nested Learning: The Illusion of Deep Learning Architectures [57.41377373511876]
我々はNested Learning(NL)と呼ばれる新しい学習パラダイムを提案する。
表現的一般化は、実際には、深い記憶と/またはより強力な学習規則を持つ一般化である。
本稿では、長期記憶の伝統的な視点を一般化するメモリシステムのための新しい連続体を提案する。
論文 参考訳(メタデータ) (2025-12-31T07:59:43Z) - Understanding the Dilemma of Unlearning for Large Language Models [50.54260066313032]
Unlearningは、大きな言語モデル(LLM)から特定の知識を取り除こうとしている。
提案するunPactは,帰納的帰属とコントリビューショントラッキングによるアンラーニングのための解釈可能なフレームワークである。
論文 参考訳(メタデータ) (2025-09-29T12:15:19Z) - Learning-Time Encoding Shapes Unlearning in LLMs [25.48677069802298]
知識エンコーディングにおける学習時間選択が、未学習の事実知識の有効性に与える影響について検討する。
この結果から,学習時の知識符号化は,信頼性の高いポストホック・アンラーニングを実現する上で重要な役割を担っている可能性が示唆された。
論文 参考訳(メタデータ) (2025-06-18T02:42:02Z) - General Intelligence Requires Reward-based Pretraining [14.057301560895505]
大規模言語モデル(LLM)は、実世界の素晴らしいユーティリティを実証している。
しかし、適応的かつ堅牢に推論できる能力は、脆弱なままだ。
我々は3つの重要な方向から知識と推論を解き放つことを提案する。
論文 参考訳(メタデータ) (2025-02-26T18:51:12Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。