論文の概要: Learning Behavior Representations Through Multi-Timescale Bootstrapping
- arxiv url: http://arxiv.org/abs/2206.07041v1
- Date: Tue, 14 Jun 2022 17:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:56:54.595059
- Title: Learning Behavior Representations Through Multi-Timescale Bootstrapping
- Title(参考訳): マルチタイムスケールブートストラップによる学習行動表現
- Authors: Mehdi Azabou, Michael Mendelson, Maks Sorokin, Shantanu Thakoor,
Nauman Ahad, Carolina Urzay, Eva L. Dyer
- Abstract要約: 本稿では,行動のマルチスケール表現学習モデルであるBootstrap Across Multiple Scales (BAMS)を紹介する。
まず,異なる地形タイプをナビゲートする四足歩行のデータセットに本手法を適用し,そのモデルが行動の時間的複雑さを捉えていることを示す。
- 参考スコア(独自算出の注目度): 8.543808476554695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural behavior consists of dynamics that are both unpredictable, can switch
suddenly, and unfold over many different timescales. While some success has
been found in building representations of behavior under constrained or
simplified task-based conditions, many of these models cannot be applied to
free and naturalistic settings due to the fact that they assume a single scale
of temporal dynamics. In this work, we introduce Bootstrap Across Multiple
Scales (BAMS), a multi-scale representation learning model for behavior: we
combine a pooling module that aggregates features extracted over encoders with
different temporal receptive fields, and design a set of latent objectives to
bootstrap the representations in each respective space to encourage
disentanglement across different timescales. We first apply our method on a
dataset of quadrupeds navigating in different terrain types, and show that our
model captures the temporal complexity of behavior. We then apply our method to
the MABe 2022 Multi-agent behavior challenge, where our model ranks 3rd overall
and 1st on two subtasks, and show the importance of incorporating
multi-timescales when analyzing behavior.
- Abstract(参考訳): 自然な振る舞いは、予測不能で、突然切り替えることができ、多くの異なる時間スケールで展開できるダイナミクスから成り立っている。
制約付きあるいは単純化されたタスクベース条件下での振る舞いの表現にはいくつかの成功例があるが、これらのモデルの多くは、時間的ダイナミクスの単一スケールを仮定しているため、自由で自然主義的な設定には適用できない。
本研究では,マルチスケール表現学習モデルであるbams(bootstrap across multiple scales)について紹介する。我々は,エンコーダ上で抽出された特徴を異なる時間受容場に集約するプールモジュールと,各空間の表現をブートストラップする潜在目的のセットを設計すれば,異なる時間スケール間での絡み合いを促進する。
まず,異なる地形をナビゲートする四足歩行のデータセットに本手法を適用し,そのモデルが行動の時間的複雑さを捉えることを示す。
提案手法をmabe 2022マルチエージェント行動チャレンジに適用し,2つのサブタスクで総合3位,第1位にランク付けし,行動分析時にマルチタイムスケールを組み込むことの重要性を示した。
関連論文リスト
- Semantic-Guided Multimodal Sentiment Decoding with Adversarial Temporal-Invariant Learning [22.54577327204281]
マルチモーダル感情分析は、異なるモダリティから表現を学習し、人間の感情を識別することを目的としている。
既存の作品は、連続した時系列に固有のフレームレベルの冗長性を無視することが多く、ノイズを伴う不完全なモジュラリティ表現をもたらす。
本研究では,時間段階の分布変動を制約し,時間的時間的変動を効果的に捉えた時間的不変学習を提案する。
論文 参考訳(メタデータ) (2024-08-30T03:28:40Z) - A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - Relax, it doesn't matter how you get there: A new self-supervised
approach for multi-timescale behavior analysis [8.543808476554695]
我々は,2つの新しい構成要素を組み合わせた行動のマルチタスク表現学習モデルを開発した。
我々のモデルは、全体およびすべてのグローバルタスクにおいて、9つのフレームレベルタスクのうち7つのうち1番目または2番目をランク付けします。
論文 参考訳(メタデータ) (2023-03-15T17:58:48Z) - A Multi-view Multi-task Learning Framework for Multi-variate Time Series
Forecasting [42.061275727906256]
MTS予測のための新しいマルチビューマルチタスク(MVMT)学習フレームワークを提案する。
MVMT情報は、MTSデータに深く隠され、モデルが自然にそれをキャプチャすることを妨げる。
タスクワイドアフィン変換とタスクワイド正規化という,2種類の基本操作をそれぞれ開発する。
論文 参考訳(メタデータ) (2021-09-02T06:11:26Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。