論文の概要: A Mathematical Framework for AI Singularity: Conditions, Bounds, and Control of Recursive Improvement
- arxiv url: http://arxiv.org/abs/2511.10668v1
- Date: Sat, 08 Nov 2025 21:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.244277
- Title: A Mathematical Framework for AI Singularity: Conditions, Bounds, and Control of Recursive Improvement
- Title(参考訳): AI特異性のための数学的フレームワーク:再帰的改善の条件、境界および制御
- Authors: Akbar Anbar Jafari, Cagri Ozcinar, Gholamreza Anbarjafari,
- Abstract要約: 我々は、自己改善のための分析フレームワークを開発し、能力向上とリソースのビルトアウトとデプロイメントポリシを結びつける。
我々は、可観測級数から脱走と非特異な振る舞いの証明をYes/Noにマッピングする決定ルールを導出する。
このフレームワークは、現在のレベルに対して、高速な改善がいかに加速するかに基づいて、偽造可能なテストを生成する。
- 参考スコア(独自算出の注目度): 1.932555230783329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI systems improve by drawing on more compute, data, energy, and better training methods. This paper asks a precise, testable version of the "runaway growth" question: under what measurable conditions could capability escalate without bound in finite time, and under what conditions can that be ruled out? We develop an analytic framework for recursive self-improvement that links capability growth to resource build-out and deployment policies. Physical and information-theoretic limits from power, bandwidth, and memory define a service envelope that caps instantaneous improvement. An endogenous growth model couples capital to compute, data, and energy and defines a critical boundary separating superlinear from subcritical regimes. We derive decision rules that map observable series (facility power, IO bandwidth, training throughput, benchmark losses, and spending) into yes/no certificates for runaway versus nonsingular behavior. The framework yields falsifiable tests based on how fast improvement accelerates relative to its current level, and it provides safety controls that are directly implementable in practice, such as power caps, throughput throttling, and evaluation gates. Analytical case studies cover capped-power, saturating-data, and investment-amplified settings, illustrating when the envelope binds and when it does not. The approach is simulation-free and grounded in measurements engineers already collect. Limitations include dependence on the chosen capability metric and on regularity diagnostics; future work will address stochastic dynamics, multi-agent competition, and abrupt architectural shifts. Overall, the results replace speculation with testable conditions and deployable controls for certifying or precluding an AI singularity.
- Abstract(参考訳): AIシステムは、より多くの計算、データ、エネルギ、より良いトレーニング方法を描画することによって改善される。
有限時間で有界にエスカレートできる測定可能な条件と、それを除外できる条件は何か?
再帰的自己改善のための分析フレームワークを開発し、能力向上とリソースのビルトアウトとデプロイメントポリシを結びつける。
パワー、帯域幅、メモリによる物理的および情報理論上の制限は、即時の改善をカプセル化するサービスエンベロープを定義します。
内在的成長モデルでは、資本を計算、データ、エネルギーに結合させ、超線形を亜臨界状態から分離する臨界境界を定義する。
我々は、可観測級数(ファシリティパワー、IO帯域幅、トレーニングスループット、ベンチマーク損失、消費)を、逃走と非特異な動作の証明書にマッピングする決定ルールを導出する。
このフレームワークは、現在のレベルに対して高速な改善がいかに加速するかに基づいて、フェール可能なテストを生成し、パワーキャップやスループットスロットリング、評価ゲートなど、実際に直接実装可能な安全制御を提供する。
分析ケーススタディでは、キャップ付きパワー、飽和データ、投資増幅された設定をカバーし、エンベロープが結合した時に照明する。
このアプローチはシミュレーションフリーで、エンジニアが既に収集した測定値に基礎を置いている。
制限には、選択された能力指標と規則性診断への依存、将来の作業は確率力学、マルチエージェント競合、急激なアーキテクチャシフトに対処する。
全体として、結果は憶測をテスト可能な条件に置き換え、AIの特異性を認証または前置するためのデプロイ可能なコントロールに置き換える。
関連論文リスト
- PowerGrow: Feasible Co-Growth of Structures and Dynamics for Power Grid Synthesis [75.14189839277928]
本稿では,運用効率を維持しながら計算オーバーヘッドを大幅に削減する,共同生成フレームワークPowerGrowを提案する。
ベンチマーク設定による実験では、PowerGrowはフィデリティと多様性において、事前の拡散モデルよりも優れていた。
これは、運用上有効で現実的な電力グリッドシナリオを生成する能力を示している。
論文 参考訳(メタデータ) (2025-08-29T01:47:27Z) - Backpropagation-Free Test-Time Adaptation via Probabilistic Gaussian Alignment [16.352863226512984]
テスト時間適応(TTA)は、推論中にラベルのないテストデータを活用することにより、分散シフト下でのゼロショットロバスト性を高める。
ほとんどのメソッドは、スケーラビリティを制限し、リアルタイムデプロイメントを妨げるバックプロパゲーションや反復最適化に依存しています。
本稿では,Advanced Distribution-AwareとBack propagation-free Test-time Adapting法であるADAPTを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:42:49Z) - Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models [86.88657425848547]
大型推論モデル(LRMs)はすでに長い連鎖推論のための潜在能力を持っている。
我々は、自動生成の自己検証タスクを使用して、モデルに推論、帰納、誘拐の3つのメタ能力を持たせることを明確にした。
我々の3つのステージ・パイプラインの個別アライメント、パラメータ空間のマージ、ドメイン固有の強化学習は、命令調整ベースラインと比較して10%以上のパフォーマンス向上を実現します。
論文 参考訳(メタデータ) (2025-05-15T17:58:33Z) - Conformal Calibration: Ensuring the Reliability of Black-Box AI in Wireless Systems [36.407171992845456]
この論文は、計算量的に軽量で高度な統計ツールを採用することによって、芸術の状態を超越した一般的なフレームワークであるコンフォーマルキャリブレーションをレビューする。
コンフォーマルキャリブレーションをAIモデルライフサイクルに織り込むことで、ネットワークオペレータは、ブラックボックスAIモデルの信頼性を、無線システムの信頼性の高い実現技術として確立することができる。
論文 参考訳(メタデータ) (2025-04-12T19:05:00Z) - Large Continual Instruction Assistant [59.585544987096974]
CIT(Continuous Instruction Tuning)は、大規模モデルにデータによる人間の意図データに従うよう指示するために用いられる。
既存の更新勾配は、CITプロセス中に前のデータセットのパフォーマンスを著しく損なうことになる。
本稿では,この課題に対処する汎用的な連続的命令チューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-08T11:24:59Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。