論文の概要: Learning Task-Agnostic Skill Bases to Uncover Motor Primitives in Animal Behaviors
- arxiv url: http://arxiv.org/abs/2506.15190v1
- Date: Wed, 18 Jun 2025 07:11:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.567235
- Title: Learning Task-Agnostic Skill Bases to Uncover Motor Primitives in Animal Behaviors
- Title(参考訳): 動物行動における運動プリミティブの発見のためのタスク非依存スキルベース
- Authors: Jiyi Wang, Jingyang Ke, Bo Dai, Anqi Wu,
- Abstract要約: 動作理解のためのスキルベース模倣学習(SKIL)を導入する。
我々は、単純なグリッドの世界、離散的なラビリンス、そして自由に動く動物のビデオに対する我々のアプローチを検証する。
- 参考スコア(独自算出の注目度): 9.112824008499807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animals flexibly recombine a finite set of core motor primitives to meet diverse task demands, but existing behavior-segmentation methods oversimplify this process by imposing discrete syllables under restrictive generative assumptions. To reflect the animal behavior generation procedure, we introduce skill-based imitation learning (SKIL) for behavior understanding, a reinforcement learning-based imitation framework that (1) infers interpretable skill sets, i.e., latent basis functions of behavior, by leveraging representation learning on transition probabilities, and (2) parameterizes policies as dynamic mixtures of these skills. We validate our approach on a simple grid world, a discrete labyrinth, and unconstrained videos of freely moving animals. Across tasks, it identifies reusable skill components, learns continuously evolving compositional policies, and generates realistic trajectories beyond the capabilities of traditional discrete models. By exploiting generative behavior modeling with compositional representations, our method offers a concise, principled account of how complex animal behaviors emerge from dynamic combinations of fundamental motor primitives.
- Abstract(参考訳): 動物は、様々なタスク要求を満たすために、有限個のコアモータープリミティブを柔軟に再結合するが、既存の行動分離法は、限定的な生成仮定の下で離散音節を挿入することで、このプロセスを単純化する。
動物行動生成の過程を反映するために,(1)解釈可能なスキルセット,すなわち,遷移確率の表現学習を活用して行動の潜在基底関数を推論する強化学習に基づく模倣フレームワークである,行動理解のためのスキルベース模倣学習(SKIL)を導入し,(2)これらのスキルの動的混合としてポリシーをパラメータ化する。
我々は、単純なグリッドの世界、離散的なラビリンス、そして自由に動く動物のビデオに対する我々のアプローチを検証する。
タスク全体にわたって、再利用可能なスキルコンポーネントを特定し、継続的に進化する構成ポリシーを学び、従来の離散モデルの能力を超えた現実的な軌道を生成する。
本手法は, 合成表現を用いた生成的行動モデリングを利用して, 基本運動プリミティブの動的組み合わせから複雑な動物行動が出現するかを, 簡潔かつ原理的に説明する。
関連論文リスト
- AnySkill: Learning Open-Vocabulary Physical Skill for Interactive Agents [58.807802111818994]
オープンな語彙の指示に従って物理的に妥当な相互作用を学習する新しい階層的手法であるAnySkillを提案する。
我々のアプローチは、模倣学習によって訓練された低レベルコントローラを介して、一連のアトミックアクションを開発することから始まります。
提案手法の重要な特徴は,手動の報酬工学を使わずにオブジェクトとのインタラクションを学習する,高レベルなポリシーに対する画像ベースの報酬の利用である。
論文 参考訳(メタデータ) (2024-03-19T15:41:39Z) - Evolving Reservoirs for Meta Reinforcement Learning [1.6874375111244329]
本稿では,そのようなプロセスを実現する機構を研究するための計算モデルを提案する。
進化のスケールでは、リカレントニューラルネットワークの族である貯水池を進化させます。
我々は、強化学習(RL)を通じた行動政策の学習を容易にするために、これらの進化した貯水池を利用する。
以上の結果から,貯水池の進化は多様な課題の学習を改善することが示唆された。
論文 参考訳(メタデータ) (2023-12-09T16:11:48Z) - In-Context Learning Dynamics with Random Binary Sequences [16.645695664776433]
テキスト内学習のダイナミクスを解析できるフレームワークを提案する。
人間の知覚の認知科学に触発されて、ランダムなバイナリシーケンスをコンテキストとして使用する。
最新のGPT-3.5+モデルでは、一見ランダムな数を生成し、基本形式言語を学習する創発的な能力を見出す。
論文 参考訳(メタデータ) (2023-10-26T17:54:52Z) - Inferring Versatile Behavior from Demonstrations by Matching Geometric
Descriptors [72.62423312645953]
人間は直感的にタスクを多目的に解決し、軌道に基づく計画や個々のステップの行動を変化させる。
現在のImitation Learningアルゴリズムは、通常、単調な専門家によるデモンストレーションのみを考慮し、状態アクションベースの設定で行動する。
代わりに、移動プリミティブの混合と分布マッチングの目的を組み合わせることで、専門家の行動と汎用性にマッチする多目的行動を学ぶ。
論文 参考訳(メタデータ) (2022-10-17T16:42:59Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - Hierarchical Reinforcement Learning of Locomotion Policies in Response
to Approaching Objects: A Preliminary Study [11.919315372249802]
深層強化学習により、ヒューマノイドロボットのような複雑な運動系がA点からB点に移動できるようになった。
自然界における動物の自然反応の観察にインスパイアされた私たちは、ロボットの移動におけるこの進歩を拡大したいと考えています。
ロボットがボールにぶつかることを避けるため,MuJoCo内にシミュレーション環境を構築した。
論文 参考訳(メタデータ) (2022-03-20T18:24:18Z) - Augmenting Reinforcement Learning with Behavior Primitives for Diverse
Manipulation Tasks [17.13584584844048]
本研究では,MAnipulation Primitive-augmented reinforcement LEarning (MAPLE)を導入した。
我々は、プリミティブを巻き込み、それらの実行を入力パラメータでインスタンス化する階層的なポリシーを開発する。
我々は、MAPLEが、シミュレーション操作タスクのスイートにおいて、ベースラインアプローチをかなりのマージンで上回ることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:44:33Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。