論文の概要: Human-Inspired Continuous Learning of Internal Reasoning Processes: Learning How to Think for Adaptive AI Systems
- arxiv url: http://arxiv.org/abs/2602.11516v1
- Date: Thu, 12 Feb 2026 03:19:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.616579
- Title: Human-Inspired Continuous Learning of Internal Reasoning Processes: Learning How to Think for Adaptive AI Systems
- Title(参考訳): ヒューマンインスパイアされた内部推論プロセスの継続的学習:適応型AIシステムのための考え方を学ぶ
- Authors: Hong Su,
- Abstract要約: 内部推論プロセスは、動的現実世界環境で持続的な適応が可能なAIシステムの開発に不可欠である。
本研究では,シーケンシャルな推論モデル内での推論,行動,反射,検証を統一する,人間にインスパイアされた継続的学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.11844977816228043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning internal reasoning processes is crucial for developing AI systems capable of sustained adaptation in dynamic real-world environments. However, most existing approaches primarily emphasize learning task-specific outputs or static knowledge representations, while overlooking the continuous refinement of internal reasoning structures, action scheduling policies, and learning mechanisms themselves. In this paper, we propose a human-inspired continuous learning framework that unifies reasoning, action, reflection, and verification within a sequential reasoning model enhanced by parallel learning. The framework explicitly treats internal thinking processes as primary learning objects. It systematically records internal reasoning trajectories and environmental interactions as structured learning material, enabling the system to optimize not only task-level content but also the organization, scheduling, and evolution of reasoning activities. This design realizes learning alongside processing, allowing cognitive structures to improve during execution. Furthermore, the framework supports controlled replacement of predefined logic with learned procedures and introduces a hierarchical learning-to-learn mechanism that jointly adapts task-level parameters and learning strategies. As a result, the system progressively evolves its internal cognitive architecture while preserving operational stability. Experimental results on a temperature sensor abnormality detection task show that incorporating internal-process learning reduces average runtime by 23.9%.
- Abstract(参考訳): 内部推論プロセスの学習は、動的現実世界環境で持続的な適応が可能なAIシステムの開発に不可欠である。
しかし、既存のほとんどのアプローチは、内部推論構造、アクションスケジューリングポリシー、学習メカニズム自体の継続的な洗練を見越しながら、タスク固有のアウトプットや静的知識表現の学習に重点を置いている。
本稿では,並列学習によって強化された逐次推論モデルにおいて,推論,行動,反射,検証を統一する,人間にインスパイアされた継続的学習フレームワークを提案する。
このフレームワークは、内部思考プロセスを初等学習オブジェクトとして明示的に扱う。
内部推論の軌跡と環境相互作用を構造化学習材料として体系的に記録し、タスクレベルのコンテンツだけでなく、推論活動の組織、スケジューリング、進化を最適化することを可能にする。
この設計は、処理と共に学習を実現し、実行中に認知構造を改善する。
さらに、このフレームワークは、事前定義されたロジックを学習手順に置き換える制御をサポートし、タスクレベルのパラメータと学習戦略を協調的に適応する階層的な学習学習機構を導入している。
その結果、システムは、運用安定性を維持しながら、徐々に内部認知アーキテクチャを進化させていく。
温度センサ異常検出タスクの実験結果によると、内部プロセス学習を取り入れた場合、平均実行時間は23.9%減少する。
関連論文リスト
- Human Simulation Computation: A Human-Inspired Framework for Adaptive AI Systems [0.11844977816228043]
HSC(Human Computation Simulation)は、思考、行動、学習、リフレクション、活動スケジューリングを含む、継続的な閉ループプロセスとしてインテリジェンスをモデル化する。
HSCは、内部推論プロセスのすべての段階にわたって一般的に使用される人間の思考戦略を取り入れている。
理論的分析を通じて、人間のシミュレーション戦略は言語資料だけでは学べないと主張している。
論文 参考訳(メタデータ) (2026-01-20T12:00:04Z) - A Formal Descriptive Language for Learning Dynamics: A Five-Layer Structural Coordinate System [0.0]
本稿では,動的学習のための多層形式記述フレームワークを提案する。
予測モデルや規範モデルを提供するのではなく、状態変数、マッピング、レイヤ固有の責務で構成されるシンボリック言語を導入している。
論文 参考訳(メタデータ) (2025-12-20T22:46:13Z) - The Imperfect Learner: Incorporating Developmental Trajectories in Memory-based Student Simulation [55.722188569369656]
本稿では,メモリベースの学生シミュレーションのための新しいフレームワークを提案する。
構造的知識表現を備えた階層記憶機構を通じて発達軌道を組み込む。
実際に,次世代科学標準に基づくカリキュラム・アライン・シミュレータを実装した。
論文 参考訳(メタデータ) (2025-11-08T08:05:43Z) - Heterogeneous Adversarial Play in Interactive Environments [15.718025074467453]
Heterogeneous Adversarial Play (HAP) は、教師と学生の交流を最小限の最適化として形式化する対向的な自動カリキュラム学習フレームワークである。
本フレームワークは, 人工エージェントと人体の両方の学習効率を高めるカリキュラムを作成しながら, SOTAベースラインと性能の同等性を実現している。
論文 参考訳(メタデータ) (2025-10-21T08:29:59Z) - Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - A Survey of Self-Evolving Agents: On Path to Artificial Super Intelligence [87.08051686357206]
大きな言語モデル(LLM)は強力な能力を示しているが、基本的に静的である。
LLMはますますオープンでインタラクティブな環境にデプロイされているため、この静的な性質は重要なボトルネックとなっている。
この調査は、自己進化エージェントの体系的で包括的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-07-28T17:59:05Z) - Foundations of a Developmental Design Paradigm for Integrated Continual Learning, Deliberative Behavior, and Comprehensibility [15.277175466744472]
現在の手法の限界を克服するシステム設計を導入する。
この設計は3つのコアコンポーネントから構成される: Modeller、本質的には連続学習が可能な勾配なし学習メカニズムである。
我々は、MNISTを形状検出タスクとして用い、より高次元のネットワーク構造空間にモデリングフレームワークを拡張した。
論文 参考訳(メタデータ) (2025-02-19T18:18:27Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。