論文の概要: Intelligence as Trajectory-Dominant Pareto Optimization
- arxiv url: http://arxiv.org/abs/2602.13230v1
- Date: Wed, 28 Jan 2026 12:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.564619
- Title: Intelligence as Trajectory-Dominant Pareto Optimization
- Title(参考訳): 軌道支配パレート最適化としてのインテリジェンス
- Authors: Truong Xuan Khanh, Truong Quynh Hoa,
- Abstract要約: 人工知能の進歩にもかかわらず、多くのシステムは長距離適応性に停滞を見せている。
我々は、多目的トレードオフによって支配される軌道レベルの現象としてインテリジェンスを定式化する。
動的インテリジェンス天井は、軌道レベルの支配による必然的に幾何学的な結果として生じることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent advances in artificial intelligence, many systems exhibit stagnation in long-horizon adaptability despite continued performance optimization. This work argues that such limitations do not primarily arise from insufficient learning, data, or model capacity, but from a deeper structural property of how intelligence is optimized over time. We formulate intelligence as a trajectory-level phenomenon governed by multi-objective trade-offs, and introduce Trajectory-Dominant Pareto Optimization, a path-wise generalization of classical Pareto optimality in which dominance is defined over full trajectories. Within this framework, Pareto traps emerge as locally non-dominated regions of trajectory space that nevertheless restrict access to globally superior developmental paths under conservative local optimization. To characterize the rigidity of such constraints, we define the Trap Escape Difficulty Index (TEDI), a composite geometric measure capturing escape distance, structural constraints, and behavioral inertia. We show that dynamic intelligence ceilings arise as inevitable geometric consequences of trajectory-level dominance, independent of learning progress or architectural scale. We further introduce a formal taxonomy of Pareto traps and illustrate the resulting trajectory-level divergence using a minimal agent-environment model. Together, these results shift the locus of intelligence from terminal performance to optimization geometry, providing a principled framework for diagnosing and overcoming long-horizon developmental constraints in adaptive systems.
- Abstract(参考訳): 近年の人工知能の進歩にもかかわらず、多くのシステムは継続的な性能最適化にもかかわらず、長距離適応性が停滞している。
この研究は、このような制限は主に学習、データ、モデル能力の不足から生じるものではなく、時間とともにインテリジェンスがどのように最適化されるかというより深い構造的特性から生じるものである、と論じている。
多目的トレードオフによって支配されるトラジェクトリレベルの現象としてインテリジェンスを定式化し、トラジェクトリ・ドミナント・パレート最適化(トラジェクトリ・ドミナント・パレート最適化)を導入する。
この枠組みの中では、パレートトラップは局所的に支配されない軌道空間の領域として現れ、それでも保守的な局所最適化の下で、世界的に優れた発達経路へのアクセスを制限する。
このような制約の剛性を特徴付けるために,脱走距離,構造的制約,行動慣性を計測する複合幾何測度であるTrap Escape Difficulty Index (TEDI)を定義した。
動的インテリジェンス天井は、学習の進行やアーキテクチャの規模によらず、軌道レベルの支配による必然的に幾何学的な結果として生じることを示す。
さらに,パレートトラップの形式的分類を導入し,最小限のエージェント環境モデルを用いて軌道レベルのばらつきを示す。
これらの結果は,知能の軌跡を終端性能から最適化幾何へシフトさせ,適応システムにおける長期的発達制約の診断と克服のための原則的枠組みを提供する。
関連論文リスト
- Soft-Radial Projection for Constrained End-to-End Learning [2.3367876359631645]
我々は、勾配飽和を回避できる微分可能なreパラメタライゼーション層であるSoft-Radial Projectionを紹介する。
この構造は、ほぼどこでもフルランクのヤコビアンを保存しながら、厳密な実現性を保証する。
我々は、最先端の最適化と投影に基づくベースラインよりも優れた収束挙動と解の質を実証的に示す。
論文 参考訳(メタデータ) (2026-02-03T12:33:44Z) - Top 10 Open Challenges Steering the Future of Diffusion Language Model and Its Variants [85.33837131101342]
本稿では,基盤基盤,アルゴリズム最適化,認知推論,統合マルチモーダルインテリジェンスという4つの柱で構成された戦略ロードマップを提案する。
この移行は、複雑な構造的推論、動的自己補正、シームレスなマルチモーダル統合が可能な次世代AIの開発に不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2026-01-20T14:58:23Z) - PILOT: Planning via Internalized Latent Optimization Trajectories for Large Language Models [51.43746425777865]
大規模言語モデル(LLM)は、しばしばグローバル戦略を定式化する能力に欠けており、長い水平タスクにおけるエラーの伝播につながる。
PILOTは,大規模モデルの戦略的監視を本質的な潜伏誘導に内部化するためのフレームワークである。
論文 参考訳(メタデータ) (2026-01-07T12:38:56Z) - MMP-A*: Multimodal Perception Enhanced Incremental Heuristic Search on Path Planning [8.522882937983972]
MMP-A* は、視覚言語モデルの空間的接地機能と、新しい適応的減衰機構を統合するマルチモーダルフレームワークである。
MMP-A* は操作コストを大幅に削減し, ほぼ最適軌道を達成できることを示す。
論文 参考訳(メタデータ) (2026-01-05T08:55:27Z) - Dynamic Intelligence Ceilings: Measuring Long-Horizon Limits of Planning and Creativity in Artificial Systems [0.0]
現代のAIシステムの中心的な制限は、それ自体が能力ではなく、パフォーマンスフロンティアの早期固定にある、と我々は主張する。
本稿では,ある時点においてシステムによって達成可能な有効知能の最高レベルとして定義された,EmphDynamic Intelligence Ceiling(DIC)の概念を紹介する。
我々は2つの推定器を用いてDICを運用する: 制限された資源下での最大解答困難を捕捉するEmph Difficulty Ceiling (PDC) と、このフロンティアの時間的進化を定量化するEmphCeiling Drift Rate (CDR) である。
論文 参考訳(メタデータ) (2026-01-03T00:13:45Z) - Description of the Training Process of Neural Networks via Ergodic Theorem : Ghost nodes [3.637162892228131]
本稿では、訓練勾配降下(SGD)による深層ニューラルネットワークの理解と加速のための統一的な枠組みを提案する。
我々は,安定剤に対する真の収束を識別する,最も大きなリャプノフ指数の実用診断,実行推定を導入する。
本稿では,補助的なゴースト出力ノードを付加した標準分類器のゴーストカテゴリ拡張を提案する。
論文 参考訳(メタデータ) (2025-07-01T17:54:35Z) - Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。