論文の概要: Continually self-improving AI
- arxiv url: http://arxiv.org/abs/2603.18073v1
- Date: Wed, 18 Mar 2026 04:54:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.740809
- Title: Continually self-improving AI
- Title(参考訳): 継続的な自己改善型AI
- Authors: Zitong Yang,
- Abstract要約: 現代の言語モデルベースのAIシステムは驚くほど強力だが、その能力は基本的に人間の創造者によって支えられている。
この論文は、これらの固有の制限を克服するための小さな一歩を踏み出し、依存関係を壊して継続的に自己改善するAIを作るための3つの章を提示している。
まず、知識獲得におけるこのデータ効率の障壁を克服するために、小さなコーパスをリッチな知識表現に多様化・増幅する合成データアプローチを提案する。
第二に、人間のデータへの依存を減らすために、そのようなデータが一定量与えられたら、合成データを自己生成して、その基本的な事前学習能力をブートストラップできることが示される。
- 参考スコア(独自算出の注目度): 5.390995889911029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern language model-based AI systems are remarkably powerful, yet their capabilities remain fundamentally capped by their human creators in three key ways. First, although a model's weights can be updated via fine-tuning, acquiring new knowledge from small, specialized corpora after pretraining remains highly data-inefficient. Second, the training of these systems relies heavily on finite, human-generated data from across history. Third, the pipelines used to train AI models are confined by the algorithms that human researchers can discover and explore. This thesis takes a small step toward overcoming these inherent limitations, presenting three chapters aimed at breaking these dependencies to create continually self-improving AI. First, to overcome this data-efficiency barrier in knowledge acquisition, we propose a synthetic data approach that diversifies and amplifies small corpora into rich knowledge representations, enabling a model to effectively update its parameters from limited source material. Second, to reduce reliance on human data, we show that given a fixed amount of such data, the model can self-generate synthetic data to bootstrap its fundamental pretraining capabilities without distillation from any off-the-shelf, instruction-tuned LM. Finally, to transcend human-engineered training paradigms, we demonstrate that by scaling search during test time over the space of algorithms, AI can search over a larger space of learning algorithm configurations than human researchers can explore manually.
- Abstract(参考訳): 現代の言語モデルに基づくAIシステムは驚くほど強力だが、その能力は人間の創造者によって3つの重要な方法で根絶されている。
第一に、モデルの重みは微調整によって更新できるが、事前訓練後の小さな専門的なコーパスから新しい知識を取得することは、データ非効率なままである。
第2に、これらのシステムのトレーニングは、歴史上の有限で人為的なデータに大きく依存している。
第三に、AIモデルを訓練するために使われるパイプラインは、人間の研究者が発見し探索できるアルゴリズムによって制限されている。
この論文は、これらの固有の制限を克服するための小さな一歩を踏み出し、依存関係を壊して継続的に自己改善するAIを作るための3つの章を提示している。
まず、知識獲得におけるこのデータ効率障壁を克服するために、小さなコーパスをリッチな知識表現に多様化・増幅する合成データアプローチを提案し、モデルが限られた情報源からパラメータを効果的に更新できるようにする。
第2に、人間のデータへの依存を減らすために、一定の量のデータから合成データを自己生成して、既成の命令調整LMから蒸留することなく、基本的事前学習能力をブートストラップすることができることを示す。
最後に、人間工学的なトレーニングパラダイムを超越するために、アルゴリズムの空間を越えてテスト時間内に探索をスケールすることで、AIは人間の研究者が手動で探索できるよりも大きな学習アルゴリズム構成領域を探索できることを実証した。
関連論文リスト
- Meta-Learning and Synthetic Data for Automated Pretraining and Finetuning [2.657867981416885]
機械学習(ML)における事前訓練モデルの増加は、実践者にとって大きな課題となる。
モデルがスケールするにつれて、実世界のデータへの依存度の増加は、トレーニングのボトルネックとなり、より効率的にデータを活用する必要がある。
この論文はメタラーニングを採用し、機械学習をディープラーニング領域に拡張する。
論文 参考訳(メタデータ) (2025-06-11T12:48:45Z) - Shifting AI Efficiency From Model-Centric to Data-Centric Compression [67.45087283924732]
AI研究の焦点は、モデル中心の圧縮からデータ中心の圧縮へとシフトしている、と私たちは主張する。
データ中心圧縮は、モデルトレーニングや推論中に処理されたデータのボリュームを直接圧縮することで、AI効率を向上させる。
我々の研究は、AIの効率性に関する新たな視点を提供し、既存の取り組みを合成し、コンテキスト長の増大によって引き起こされる課題に対処するためにイノベーションを触媒することを目的としています。
論文 参考訳(メタデータ) (2025-05-25T13:51:17Z) - Generalising from Self-Produced Data: Model Training Beyond Human Constraints [0.0]
本稿では,AIモデルが新たな知識を自律的に生成し,検証する新しい枠組みを提案する。
このアプローチの中心は、人間のベンチマークを必要とせずに学習をガイドする、無制限で使い捨ての数値報酬である。
論文 参考訳(メタデータ) (2025-04-07T03:48:02Z) - Learning by Surprise: Surplexity for Mitigating Model Collapse in Generative AI [1.6545633988217645]
合成コンテンツがWebに浸透するにつれて、生成的AIモデルは自身の出力で再訓練される可能性がある。
これによってモデルが崩壊し、世代間でパフォーマンスと多様性が徐々に失われます。
本稿では,モデルの次点確率分布から直接崩壊を特徴付ける新しい尺度を提案する。
論文 参考訳(メタデータ) (2024-10-16T08:02:48Z) - The Trifecta: Three simple techniques for training deeper
Forward-Forward networks [0.0]
本稿では,より深いネットワーク上でのフォワード・フォワードアルゴリズムを大幅に改善する3つの手法のコレクションを提案する。
我々の実験は、我々のモデルが、単純なデータセットのトレーニング速度とテスト精度の両方において、同様に構造化されたバックプロパゲーションベースのモデルと同等であることを示した。
論文 参考訳(メタデータ) (2023-11-29T22:44:32Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Ex-Model: Continual Learning from a Stream of Trained Models [12.27992745065497]
連続的な学習システムは、訓練されたモデルの形式で圧縮された情報の可用性を活用するべきであると論じる。
エージェントが生データの代わりに以前に訓練されたモデルのシーケンスから学習する「Ex-Model Continual Learning」(Ex-Model Continual Learning)という新しいパラダイムを導入し、形式化する。
論文 参考訳(メタデータ) (2021-12-13T09:46:16Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Skill Preferences: Learning to Extract and Execute Robotic Skills from
Human Feedback [82.96694147237113]
Skill Preferencesは、人間の好みよりもモデルを学習し、オフラインデータから人間に沿ったスキルを抽出するアルゴリズムである。
SkiPは複雑なマルチステップ操作タスクをシミュレートしたキッチンロボットで実現できることを示す。
論文 参考訳(メタデータ) (2021-08-11T18:04:08Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。