論文の概要: Evolving Programmatic Skill Networks
- arxiv url: http://arxiv.org/abs/2601.03509v1
- Date: Wed, 07 Jan 2026 01:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.111327
- Title: Evolving Programmatic Skill Networks
- Title(参考訳): プログラムスキルネットワークの進化
- Authors: Haochen Shi, Xingdi Yuan, Bang Liu,
- Abstract要約: 本稿では,プログラムスキルネットワーク(PSN, Programmatic Skill Network)について紹介する。
MineDojoとCrafterの実験では、堅牢なスキルの再利用、迅速な適応、オープンなタスクフット分布に対する強力な一般化が実証されている。
- 参考スコア(独自算出の注目度): 39.72205581851892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study continual skill acquisition in open-ended embodied environments where an agent must construct, refine, and reuse an expanding library of executable skills. We introduce the Programmatic Skill Network (PSN), a framework in which skills are executable symbolic programs forming a compositional network that evolves through experience. PSN defines three core mechanisms instantiated via large language models: (1)REFLECT for structured fault localization over skill compositions, (2) progressive optimization with maturity-aware update gating that stabilizes reliable skills while maintaining plasticity for uncertain ones, and (3) canonical structural refactoring under rollback validation that maintains network compactness. We further show that PSN's learning dynamics exhibit structural parallels to neural network training. Experiments on MineDojo and Crafter demonstrate robust skill reuse, rapid adaptation, and strong generalization across open-ended task distributions.\footnote{We plan to open-source the code.
- Abstract(参考訳): エージェントが実行可能スキルのライブラリを拡大し、構築し、洗練し、再利用する必要があるオープンエンドの実施環境において、継続的なスキル獲得について研究する。
本稿では,プログラムスキルネットワーク(PSN, Programmatic Skill Network)について紹介する。
PSNは,(1)スキル構成に対する構造的欠陥ローカライゼーションのためのREFLECT,(2)不確実性の可塑性を維持しながら信頼性の高いスキルを安定させる成熟度対応更新ゲーティング,(3)ネットワークのコンパクト性を維持するロールバック検証の下での正準構造的リファクタリングの3つのコアメカニズムを定義した。
さらに,PSNの学習力学がニューラルネットワークトレーニングと構造的類似性を示すことを示す。
MineDojoとCrafterの実験では、堅牢なスキルの再利用、迅速な適応、オープンなタスク分散に対する強力な一般化が実証されている。
われわれはコードをオープンソース化する計画だ。
関連論文リスト
- Meta-learning three-factor plasticity rules for structured credit assignment with sparse feedback [0.0]
スパースフィードバックを訓練したリカレントネットワークにおける構造化クレジット代入の局所的な学習ルールを発見するメタラーニングフレームワークを提案する。
結果として得られる3要素学習ルールは、ローカル情報と遅延報酬のみを使用して、長期のクレジット割り当てを可能にする。
論文 参考訳(メタデータ) (2025-12-10T06:57:51Z) - Separating the what and how of compositional computation to enable reuse and continual learning [1.8206461789819075]
繰り返しニューラルネットワーク(RNN)モデルにおける連続学習と学習計算の合成再利用について検討する。
まず,多種多様なタスクを確率的生成モデルにより体系的に記述できることを示す。
我々は,このモデルを単一審理ベースで学習できる教師なしオンライン学習手法を開発した。
論文 参考訳(メタデータ) (2025-10-23T16:24:40Z) - Designing Robust Cyber-Defense Agents with Evolving Behavior Trees [0.0]
本研究では,学習可能なコンポーネントを用いた行動木を用いた自律型サイバー防御エージェントの設計手法を開発する。
学習可能なコンポーネントは、様々なサイバー攻撃に適応し、セキュリティメカニズムをデプロイするために最適化されている。
EBTをベースとしたエージェントは、適応型サイバー攻撃に対して堅牢であり、その決定と行動の解釈に高レベルな説明を提供する。
論文 参考訳(メタデータ) (2024-10-21T18:00:38Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural Networks [44.31729147722701]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - PDSketch: Integrated Planning Domain Programming and Learning [86.07442931141637]
我々は PDSketch という新しいドメイン定義言語を提案する。
これにより、ユーザーはトランジションモデルで柔軟にハイレベルな構造を定義できる。
移行モデルの詳細は、トレーニング可能なニューラルネットワークによって満たされる。
論文 参考訳(メタデータ) (2023-03-09T18:54:12Z) - Continual Learning, Fast and Slow [75.53144246169346]
補完学習システム理論(Complementary Learning Systems theory)によれば、人間は2つの相補的なシステムを通して効果的な共連続学習を行う。
EmphDualNets(Dual Networks)は、タスクの教師付き学習のための高速学習システムと、自己監視学習(SSL)によるタスク非依存の汎用表現の表現学習のための遅い学習システムからなる、一般的な連続学習フレームワークである。
我々はDualNetsの有望な成果を、標準的なオフラインタスク認識設定から、オンラインタスクフリーシナリオまで、幅広い連続的な学習プロトコルで実証する。
論文 参考訳(メタデータ) (2022-09-06T10:48:45Z) - Learning Temporally Extended Skills in Continuous Domains as Symbolic
Actions for Planning [2.642698101441705]
長期計画と継続的な制御能力の両方を必要とする問題は、既存の強化学習エージェントに重大な課題をもたらす。
本稿では,環境の計画状態の象徴的抽象化において,継続的制御のための時間的拡張スキルとフォワードモデルとをリンクする新しい階層型強化学習エージェントを提案する。
論文 参考訳(メタデータ) (2022-07-11T17:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。