論文の概要: Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning
- arxiv url: http://arxiv.org/abs/2602.13934v1
- Date: Sun, 15 Feb 2026 00:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.566881
- Title: Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning
- Title(参考訳): なぜコード、なぜ今なのか:学習可能性、計算可能性、そして機械学習の本当の限界
- Authors: Zhimin Zhao,
- Abstract要約: 本稿では,情報構造に基づく5段階の学習可能性階層を提案する。
機械学習の進歩の天井は、タスクが学習可能であるかどうかよりも、モデルのサイズに依存しない、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.38677478583601776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code generation has progressed more reliably than reinforcement learning, largely because code has an information structure that makes it learnable. Code provides dense, local, verifiable feedback at every token, whereas most reinforcement learning problems do not. This difference in feedback quality is not binary but graded. We propose a five-level hierarchy of learnability based on information structure and argue that the ceiling on ML progress depends less on model size than on whether a task is learnable at all. The hierarchy rests on a formal distinction among three properties of computational problems (expressibility, computability, and learnability). We establish their pairwise relationships, including where implications hold and where they fail, and present a unified template that makes the structural differences explicit. The analysis suggests why supervised learning on code scales predictably while reinforcement learning does not, and why the common assumption that scaling alone will solve remaining ML challenges warrants scrutiny.
- Abstract(参考訳): コード生成は強化学習よりも確実に進行している。
コードはあらゆるトークンに対して密で局所的で検証可能なフィードバックを提供するが、ほとんどの強化学習問題はそうではない。
このフィードバック品質の違いはバイナリではなく、グレード化されています。
本稿では、情報構造に基づく学習可能性の5段階階層を提案し、機械学習の進捗の天井は、タスクが学習可能であるかどうかよりもモデルサイズに依存しないと主張している。
この階層は、計算問題(表現性、計算可能性、学習可能性)の3つの性質の形式的な区別に依存している。
意味がどこに保持され、どこで失敗するかを含む、ペアワイズな関係を確立し、構造的な違いを明確にする統一されたテンプレートを提示します。
この分析は、強化学習がなければコード上で教師あり学習が予測可能であり、また、スケーリングのみが残りのMLの課題を解決するという一般的な仮定が精査される理由を示唆している。
関連論文リスト
- Readability-Robust Code Summarization via Meta Curriculum Learning [53.44612630063336]
現実の世界では、コードが貧弱な構造や難読化され、モデルのパフォーマンスが著しく低下することが多い。
本稿では,可読性の低いコードに対するコード要約の堅牢性を向上する,新しい微調整手法であるRoFTCodeSumを提案する。
論文 参考訳(メタデータ) (2026-01-09T02:38:24Z) - Nested Learning: The Illusion of Deep Learning Architectures [57.41377373511876]
我々はNested Learning(NL)と呼ばれる新しい学習パラダイムを提案する。
表現的一般化は、実際には、深い記憶と/またはより強力な学習規則を持つ一般化である。
本稿では、長期記憶の伝統的な視点を一般化するメモリシステムのための新しい連続体を提案する。
論文 参考訳(メタデータ) (2025-12-31T07:59:43Z) - Understanding the Dilemma of Unlearning for Large Language Models [50.54260066313032]
Unlearningは、大きな言語モデル(LLM)から特定の知識を取り除こうとしている。
提案するunPactは,帰納的帰属とコントリビューショントラッキングによるアンラーニングのための解釈可能なフレームワークである。
論文 参考訳(メタデータ) (2025-09-29T12:15:19Z) - On Code-Induced Reasoning in LLMs [21.875805779552564]
並列命令データセットを10のプログラミング言語で構築する。
コードの構造的・意味的特性を選択的に破壊する制御摂動を適用する。
以上の結果から,LLMは意味論的よりも構造的摂動に弱いことが示唆された。
論文 参考訳(メタデータ) (2025-09-25T19:57:36Z) - Learning-Time Encoding Shapes Unlearning in LLMs [25.48677069802298]
知識エンコーディングにおける学習時間選択が、未学習の事実知識の有効性に与える影響について検討する。
この結果から,学習時の知識符号化は,信頼性の高いポストホック・アンラーニングを実現する上で重要な役割を担っている可能性が示唆された。
論文 参考訳(メタデータ) (2025-06-18T02:42:02Z) - The Strawberry Problem: Emergence of Character-level Understanding in Tokenized Language Models [2.531076482407163]
大きな言語モデル(LLM)は、基本的制限であるトークン化のため、文字を単語にカウントするといった単純な文字レベルのタスクで一貫して失敗する。
サブワードモデルの帰納的優位性を保ちながら文字レベルの推論を大幅に改善する軽量なアーキテクチャ修正を提案する。
その結果,トークン化LMにおける低レベルの知覚ギャップを橋渡しし,それらの構造的盲点の理解と緩和のための原則的枠組みを提供する。
論文 参考訳(メタデータ) (2025-05-20T10:25:17Z) - LLM Library Learning Fails: A LEGO-Prover Case Study [20.25809428140996]
レゴプロバーは, 数学的推論のための再利用可能な補題を学習する。
学習したレムマの直接再利用の証拠は見つからず、学習したレムマのソフト再利用に対する証拠も見つからない。
本研究は,これらの手法の有効性について,重大な誤解が存在することを示唆している。
論文 参考訳(メタデータ) (2025-04-03T21:53:51Z) - General Intelligence Requires Reward-based Pretraining [14.057301560895505]
大規模言語モデル(LLM)は、実世界の素晴らしいユーティリティを実証している。
しかし、適応的かつ堅牢に推論できる能力は、脆弱なままだ。
我々は3つの重要な方向から知識と推論を解き放つことを提案する。
論文 参考訳(メタデータ) (2025-02-26T18:51:12Z) - CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - Online Structured Meta-learning [137.48138166279313]
現在のオンラインメタ学習アルゴリズムは、グローバルに共有されたメタラーナーを学ぶために限られている。
この制限を克服するオンライン構造化メタラーニング(OSML)フレームワークを提案する。
3つのデータセットの実験は、提案フレームワークの有効性と解釈可能性を示している。
論文 参考訳(メタデータ) (2020-10-22T09:10:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。