論文の概要: Annotating Motion Primitives for Simplifying Action Search in
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2102.12017v1
- Date: Wed, 24 Feb 2021 01:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 21:56:36.517684
- Title: Annotating Motion Primitives for Simplifying Action Search in
Reinforcement Learning
- Title(参考訳): 強化学習におけるアクション検索の簡略化のためのモーションプリミティブのアノテーション
- Authors: Isaac J. Sledge and Darshan W. Bryner and Jose C. Principe
- Abstract要約: 大規模環境での強化学習は、特定の状況において起こりうる多くの行動のために困難である。
我々は以前,運動プリミティブを用いて探索過程を制約し,高速化する手法を開発したことがある。
提案手法は,動作や動作を自動的にアノテートする理論上,視点に敏感で,速度に敏感な手段である。
- 参考スコア(独自算出の注目度): 10.764160559530847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning in large-scale environments is challenging due to the
many possible actions that can be taken in specific situations. We have
previously developed a means of constraining, and hence speeding up, the search
process through the use of motion primitives; motion primitives are sequences
of pre-specified actions taken across a state series. As a byproduct of this
work, we have found that if the motion primitives' motions and actions are
labeled, then the search can be sped up further. Since motion primitives may
initially lack such details, we propose a theoretically viewpoint-insensitive
and speed-insensitive means of automatically annotating the underlying motions
and actions. We do this through a differential-geometric, spatio-temporal
kinematics descriptor, which analyzes how the poses of entities in two motion
sequences change over time. We use this descriptor in conjunction with a
weighted-nearest-neighbor classifier to label the primitives using a limited
set of training examples. In our experiments, we achieve high motion and action
annotation rates for human-action-derived primitives with as few as one
training sample. We also demonstrate that reinforcement learning using
accurately labeled trajectories leads to high-performing policies more quickly
than standard reinforcement learning techniques. This is partly because motion
primitives encode prior domain knowledge and preempt the need to re-discover
that knowledge during training. It is also because agents can leverage the
labels to systematically ignore action classes that do not facilitate task
objectives, thereby reducing the action space.
- Abstract(参考訳): 大規模環境での強化学習は、特定の状況において起こりうる多くの行動のために困難である。
動作プリミティブは,動作プリミティブであり,動作プリミティブは状態系列を横断する事前特定動作のシーケンスである。
この研究の副産物として、モーションプリミティブの動作とアクションがラベル付けされている場合、探索をさらに加速することができることを発見した。
モーションプリミティブは、当初そのような詳細を欠いている可能性があるため、基礎となる動きや動作を自動的に注釈する理論的に視点非感受性で速度非感受性の手段を提案する。
これを微分幾何学的時空間キネマティクスディスクリプタで行い、2つの運動配列における実体が時間とともにどのように変化するかを分析します。
この記述子を重み付きnearest-neighbor分類器と組み合わせて、限られたトレーニング例を使用してプリミティブをラベル付けします。
私たちの実験では、人間の行動由来プリミティブに対する高い動きと行動のアノテーションレートを1つのトレーニングサンプルで達成します。
また, 精度の高いラベル付き軌道を用いた強化学習が, 標準的な強化学習技術よりも高速な性能向上を実現することを示す。
これは、モーションプリミティブが以前のドメイン知識をエンコードし、トレーニング中にその知識を再発見する必要があるためです。
また、エージェントはラベルを利用して、タスクの目的を促さないアクションクラスを体系的に無視できるため、アクションスペースは減少する。
関連論文リスト
- Latent Action Priors From a Single Gait Cycle Demonstration for Online Imitation Learning [42.642008092347986]
本稿では,ロボット学習における帰納的バイアスとして,専門家による実証から学んだ潜伏行動を行動空間の先行として提案する。
単純なオートエンコーダを用いて1つのオープンループ歩行サイクルのみからこれらの動作先を学習できることが示される。
論文 参考訳(メタデータ) (2024-10-04T09:10:56Z) - FinePseudo: Improving Pseudo-Labelling through Temporal-Alignablity for Semi-Supervised Fine-Grained Action Recognition [57.17966905865054]
実生活における行動認識の応用は、しばしば微妙な動きのきめ細かい理解を必要とする。
既存の半教師ありアクション認識は主に粗いアクション認識に焦点を当てている。
そこで我々は,微粒なアクションペアの識別を効果的に行うための,アライナビリティ検証に基づくメトリック学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T20:08:06Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Motion In-Betweening with Phase Manifolds [29.673541655825332]
本稿では,周期的オートエンコーダによって学習された位相変数を利用して,文字のターゲットポーズに到達するための,新たなデータ駆動型動作制御システムを提案する。
提案手法では,経験的ニューラルネットワークモデルを用いて,空間と時間の両方のクラスタの動きを,異なる専門家の重みで解析する。
論文 参考訳(メタデータ) (2023-08-24T12:56:39Z) - Seeing in Flowing: Adapting CLIP for Action Recognition with Motion
Prompts Learning [14.292812802621707]
対照的な言語-画像事前学習(CLIP)は、最近「ゼロショット」トレーニングにおいて顕著な一般化を示している。
より効率的で汎用的な行動認識手法を実現するために,CLIPの適応について検討する。
提案手法は,既存の最先端の手法よりも「ファウショット」と「ゼロショット」の訓練に大きく差をつける。
論文 参考訳(メタデータ) (2023-08-09T09:33:45Z) - Action Sensitivity Learning for Temporal Action Localization [35.65086250175736]
本稿では,時間的行動ローカライゼーションの課題に取り組むために,行動感性学習フレームワーク(ASL)を提案する。
まず、クラスレベルでのアクション感度とインスタンスレベルでのアクション感度を学習するための軽量なアクション感度評価器を導入する。
各フレームの動作感度に基づいて、アクション認識フレームを正のペアとしてサンプリングし、アクション非関連フレームを除去する機能を強化するために、アクション感性コントラスト損失を設計する。
論文 参考訳(メタデータ) (2023-05-25T04:19:14Z) - Multi-modal Prompting for Low-Shot Temporal Action Localization [95.19505874963751]
低ショット(ゼロショット・少数ショット)シナリオ下での時間的行動局所化の問題点を考察する。
クラスに依存しない2段階のアクションローカライズアーキテクチャをTransformerに導入し,その後にオープン語彙分類を行った。
論文 参考訳(メタデータ) (2023-03-21T10:40:13Z) - Weakly-supervised Action Transition Learning for Stochastic Human Motion
Prediction [81.94175022575966]
動作駆動型人間の動作予測の課題について紹介する。
一連の動作ラベルと短い動作履歴から、複数の可算な将来の動作を予測することを目的としている。
論文 参考訳(メタデータ) (2022-05-31T08:38:07Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z) - Intra- and Inter-Action Understanding via Temporal Action Parsing [118.32912239230272]
本研究では,スポーツビデオにサブアクションの手動アノテーションを付加した新しいデータセットを構築し,その上に時間的行動解析を行う。
スポーツ活動は通常、複数のサブアクションから構成されており、このような時間構造に対する意識は、行動認識に有益であることを示す。
また,時間的解析手法を多数検討し,そのラベルを知らずにトレーニングデータからサブアクションをマイニングできる改良手法を考案した。
論文 参考訳(メタデータ) (2020-05-20T17:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。