論文の概要: Active Thinking Model: A Goal-Directed Self-Improving Framework for Real-World Adaptive Intelligence
- arxiv url: http://arxiv.org/abs/2511.00758v1
- Date: Sun, 02 Nov 2025 01:13:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.922166
- Title: Active Thinking Model: A Goal-Directed Self-Improving Framework for Real-World Adaptive Intelligence
- Title(参考訳): リアルワールド適応知能のためのゴール指向自己改善フレームワークActive Thinking Model
- Authors: Hong Su,
- Abstract要約: 本稿では,目標推論,動的タスク生成,自己回帰学習を適応型アーキテクチャに統合する統合認知フレームワークを提案する。
数学的基盤を持つ理論解析により、ATMは外部の監督なしに、最適以下から最適な行動へと自律的に進化できることを示した。
- 参考スコア(独自算出の注目度): 0.11844977816228043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world artificial intelligence (AI) systems are increasingly required to operate autonomously in dynamic, uncertain, and continuously changing environments. However, most existing AI models rely on predefined objectives, static training data, and externally supplied feedback, which restrict their ability to adapt, reflect, and improve independently. In this paper, we propose the Active Thinking Model (ATM)- a unified cognitive framework that integrates goal reasoning, dynamic task generation, and self-reflective learning into an adaptive architecture. Unlike conventional systems that passively execute fixed procedures, ATM actively evaluates its performance through logical reasoning and environmental indicators, reuses effective methods to solve new problems, and generates novel strategies for unseen situations via a continuous self-improvement loop. A mathematically grounded theoretical analysis demonstrates that ATM can autonomously evolve from suboptimal to optimal behavior without external supervision and maintain bounded tracking regret under changing environmental conditions.
- Abstract(参考訳): 現実の人工知能(AI)システムは、動的で不確実で継続的に変化する環境において自律的に運用することがますます求められている。
しかしながら、既存のAIモデルのほとんどは、事前に定義された目標、静的トレーニングデータ、外部から供給されたフィードバックに依存しており、独立して適応、反映、改善する能力を制限する。
本稿では、ゴール推論、動的タスク生成、自己回帰学習を適応型アーキテクチャに統合する統合認知フレームワークであるアクティブ思考モデル(ATM)を提案する。
固定手順を受動的に実行する従来のシステムとは異なり、ATMは論理的推論や環境指標を通じてその性能を積極的に評価し、新しい問題を解決する効果的な手法を再利用し、継続的な自己改善ループを通じて、目に見えない状況に対する新しい戦略を生成する。
数学的に基礎付けられた理論分析は、ATMが外部の監督なしに最適な行動から最適な行動へと自律的に進化し、環境条件が変化する中で、限界追尾を維持できることを示した。
関連論文リスト
- From Agentification to Self-Evolving Agentic AI for Wireless Networks: Concepts, Approaches, and Future Research Directions [70.72279728350763]
自律進化型エージェント人工知能(AI)は、将来の無線システムに新しいパラダイムを提供する。
静的AIモデルとは異なり、自己進化エージェントは、モデルやツールを更新し、環境ダイナミクスに対応する自律進化サイクルを組み込む。
本稿では,自己進化型エージェントAIの概要を概説し,その階層化アーキテクチャ,ライフサイクル,鍵となる技術について述べる。
論文 参考訳(メタデータ) (2025-10-07T05:45:25Z) - Embodied Intelligence in Disassembly: Multimodal Perception Cross-validation and Continual Learning in Neuro-Symbolic TAMP [12.081833179751724]
本稿では、動的環境におけるエンボディインテリジェンスシステムの適応性を高めるために、ニューロシンボリックタスクと運動計画(TAMP)に基づく連続学習フレームワークを提案する。
実験結果から, 動的分解シナリオにおけるタスク成功率を81.68%から100%に改善し, 知覚誤認識の平均回数を3.389から1.128に削減した。
論文 参考訳(メタデータ) (2025-09-14T13:47:07Z) - Control-Optimized Deep Reinforcement Learning for Artificially Intelligent Autonomous Systems [8.766411351797885]
深層強化学習(DRL)は、機械学習とAIにおいて、複雑な意思決定のための強力なツールとなっている。
従来の手法では、エージェントが選択したアクションと実際のシステム応答の間の不確実性や逸脱を見越して、完璧なアクション実行を仮定することが多い。
この作業は、アクション実行ミスマッチを明示的にモデル化し補償する、制御最適化DRLフレームワークを開発することで、AIを前進させる。
論文 参考訳(メタデータ) (2025-06-30T21:25:52Z) - Situationally-Aware Dynamics Learning [57.698553219660376]
隠れ状態表現のオンライン学習のための新しいフレームワークを提案する。
提案手法は、非観測パラメータが遷移力学と報酬構造の両方に与える影響を明示的にモデル化する。
シミュレーションと実世界の両方の実験は、データ効率、ポリシー性能、安全で適応的なナビゲーション戦略の出現を著しく改善した。
論文 参考訳(メタデータ) (2025-05-26T06:40:11Z) - PolicyEvol-Agent: Evolving Policy via Environment Perception and Self-Awareness with Theory of Mind [9.587070290189507]
PolicyEvol-Agentは、他者の意図を体系的に獲得するのが特徴の包括的なフレームワークである。
PolicyEvol-Agentは、さまざまな認知操作を、内的および外的視点とともに、心の理論と統合する。
論文 参考訳(メタデータ) (2025-04-20T06:43:23Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Metacognition for Unknown Situations and Environments (MUSE) [3.2020845462590697]
未知の状況と環境(MUSE)フレームワークのメタ認知を提案する。
MUSEはメタ認知プロセス、特に自己認識と自己制御を自律エージェントに統合する。
エージェントは自己認識と自己制御の大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-20T18:41:03Z) - Incorporating Neuro-Inspired Adaptability for Continual Learning in
Artificial Intelligence [59.11038175596807]
継続的な学習は、現実世界に強い適応性を持つ人工知能を強化することを目的としている。
既存の進歩は主に、破滅的な忘れを克服するために記憶安定性を維持することに焦点を当てている。
本稿では,学習の可塑性を改善するため,パラメータ分布の古い記憶を適切に減衰させる汎用的手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T02:43:58Z) - Reflexion: Language Agents with Verbal Reinforcement Learning [44.85337947858337]
リフレクション(Reflexion)は、ウェイトを更新するのではなく、言語フィードバックによって言語エージェントを強化する新しいフレームワークである。
様々なタイプ(スカラー値または自由形式言語)とフィードバック信号のソース(外部または内部シミュレート)を組み込むのに十分な柔軟性がある。
例えば、ReflexionはHumanEvalのコーディングベンチマークで91%のパス@1精度を達成した。
論文 参考訳(メタデータ) (2023-03-20T18:08:50Z) - Active Learning of Discrete-Time Dynamics for Uncertainty-Aware Model Predictive Control [46.81433026280051]
本稿では,非線形ロボットシステムの力学を積極的にモデル化する自己教師型学習手法を提案する。
我々のアプローチは、目に見えない飛行条件に一貫して適応することで、高いレジリエンスと一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-23T00:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。