論文の概要: The Institutional Scaling Law: Non-Monotonic Fitness, Capability-Trust Divergence, and Symbiogenetic Scaling in Generative AI
- arxiv url: http://arxiv.org/abs/2603.14126v1
- Date: Sat, 14 Mar 2026 21:25:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.61847
- Title: The Institutional Scaling Law: Non-Monotonic Fitness, Capability-Trust Divergence, and Symbiogenetic Scaling in Generative AI
- Title(参考訳): 制度的スケーリング法: 生成AIにおける非単調性、能力・トラストの多様性、および共生的スケーリング
- Authors: Mark Baciak, Thomas A. Cellucci,
- Abstract要約: 環境依存的最適N*(エプシロン)を用いたモデルスケールにおける施設適合性は非単調であることを示す。
我々は、ドメイン固有モデルの編成されたシステムがフロンティア・ジェネラリストを上回る性能を発揮することを示すシンビオジェネティック・スケーリングの補正を導出する。
機関スケーリング法(Institutional Scaling Law)は、次のフェーズ移行は、より大きなモデルではなく、特定の機関ニッチに適合するドメイン固有モデルのより整合したシステムによって行われると予測している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Classical scaling laws model AI performance as monotonically improving with model size. We challenge this assumption by deriving the Institutional Scaling Law, showing that institutional fitness -- jointly measuring capability, trust, affordability, and sovereignty -- is non-monotonic in model scale, with an environment-dependent optimum N*(epsilon). Our framework extends the Sustainability Index of Han et al. (2025) from hardware-level to ecosystem-level analysis, proving that capability and trust formally diverge beyond critical scale (Capability-Trust Divergence). We further derive a Symbiogenetic Scaling correction demonstrating that orchestrated systems of domain-specific models can outperform frontier generalists in their native deployment environments. These results are contextualized within a formal evolutionary taxonomy of generative AI spanning five eras (1943-present), with analysis of frontier lab dynamics, sovereign AI emergence, and post-training alignment evolution from RLHF through GRPO. The Institutional Scaling Law predicts that the next phase transition will be driven not by larger models but by better-orchestrated systems of domain-specific models adapted to specific institutional niches.
- Abstract(参考訳): 古典的なスケーリング法則は、モデルサイズで単調に改善されたAIパフォーマンスをモデル化する。
本研究では,環境依存の最適N*(エプシロン)を用いて,制度的適合性(能力,信頼性,可否,主権)がモデルスケールでは非単調であることを示し,制度的スケーリング法(Institutional Scaling Law)を導出することによって,この仮定に挑戦する。
当社のフレームワークは,ハードウェアレベルからエコシステムレベルまで,Han et al (2025) のサステナビリティ指標を拡張しています。
さらに、ドメイン固有モデルのオーケストレーションシステムは、ネイティブデプロイメント環境におけるフロンティアジェネラリストよりも優れていることを示す。
これらの結果は、5つの時代(1943年-現在)にまたがる生成AIの形式的進化分類学の中で文脈化され、フロンティアラボのダイナミクス、主権AIの出現、RLHFからGRPOへのトレーニング後のアライメント進化の分析を行う。
機関スケーリング法(Institutional Scaling Law)は、次のフェーズ移行は、より大きなモデルではなく、特定の機関ニッチに適合するドメイン固有モデルのより整合したシステムによって行われると予測している。
関連論文リスト
- Punctuated Equilibria in Artificial Intelligence: The Institutional Scaling Law and the Speciation of Sovereign AI [0.0]
AI開発はスムーズな進歩ではなく、急激な位相遷移によって中断された長期の停滞を経て進行することを示す。
我々は、能力、制度的信頼、可買性、主権コンプライアンスの4つの側面に沿ってAIシステムを評価する数学的枠組みを開発する。
論文 参考訳(メタデータ) (2026-03-15T23:36:01Z) - Theoretical Foundations of Scaling Law in Familial Models [46.506708373314375]
モデルサイズ(N)とトレーニングトークン(D)とともに、基本的なスケーリング変数としてグラニュラリティ(G)を導入します。
この結果から, 極小指数の乗法則に準じる粒度ペナルティが明らかとなった。
のパラダイムを検証することで、デプロイメントの柔軟性が達成可能であることを実証しています。
論文 参考訳(メタデータ) (2025-12-29T12:01:58Z) - PointNSP: Autoregressive 3D Point Cloud Generation with Next-Scale Level-of-Detail Prediction [87.33016661440202]
自動回帰ポイントクラウド生成は、長い間、拡散ベースの品質アプローチに遅れを取ってきた。
低解像度で大域的な形状を保った粗大な生成フレームワークであるPointNSPを提案する。
ShapeNetの実験によると、PointNSPは自己回帰パラダイムの中で初めて、最先端(SOTA)生成品質を確立している。
論文 参考訳(メタデータ) (2025-10-07T06:31:02Z) - Neural cellular automata: applications to biology and beyond classical AI [1.9116784879310027]
神経細胞オートマタ(NCA)は、生物学的自己組織化をモデル化するための強力なフレームワークである。
NCAは、分子、細胞、組織、およびシステムレベルのスケールにわたるプロセスをシミュレートすることができる。
彼らの自己規制的行動は、完全に局所化された相互作用に制約されるが、その集団的行動は協調されたシステムレベルの結果にスケールする。
論文 参考訳(メタデータ) (2025-09-14T06:55:29Z) - UniGenX: a unified generative foundation model that couples sequence, structure and function to accelerate scientific design across proteins, molecules and materials [62.72989417755985]
自然系における関数の統一生成モデルUniGenXを提案する。
UniGenXはシンボルトークンと数値トークンの混合ストリームとして異種入力を表す。
ドメイン間のファンクション・アウェア・ジェネレーションに対して、最先端または競合的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-09T16:43:07Z) - Generate, Discriminate, Evolve: Enhancing Context Faithfulness via Fine-Grained Sentence-Level Self-Evolution [61.80716438091887]
GenDiE (Generate, Discriminate, Evolve) は、微粒な文レベルの最適化によって文脈忠実性を高める新しい自己進化フレームワークである。
応答中の各文を独立した最適化単位として扱うことで、GenDiEは以前のアプローチの限界に効果的に対処する。
ASQA(ドメイン内のLFQA)とConFiQAデータセットの実験は、GenDiEが忠実さと正しさの両方で様々なベースラインを超えることを示した。
論文 参考訳(メタデータ) (2025-03-03T16:08:33Z) - GENERator: A Long-Context Generative Genomic Foundation Model [66.46537421135996]
本稿では,98k塩基対 (bp) と1.2Bパラメータからなるゲノム基盤モデル GENERator を提案する。
DNAの386Bbpからなる拡張データセットに基づいて、GENERatorは、確立されたベンチマークと新しく提案されたベンチマークの両方で最先端のパフォーマンスを実証する。
また、特に特定のアクティビティプロファイルを持つエンハンサーシーケンスを即応的に生成することで、シーケンス最適化において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2025-02-11T05:39:49Z) - Relational Neurosymbolic Markov Models [13.22004615196798]
逐次問題は、強化学習や自然言語処理など、AIにおいてユビキタスである。
我々はニューロシンボリックAI(NeSy)を導入し、深層確率モデルにおける制約を強制する健全なフォーマリズムを提供するが、逐次問題に対して指数関数的にスケールする。
本稿では, 逐次的設定に基づいて, 近似ベイズ推論, 自動推論, 勾配推定を組み合わせた推論と学習の戦略を提案する。
論文 参考訳(メタデータ) (2024-12-17T15:41:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。