論文の概要: The Multi-Agent Behavior Dataset: Mouse Dyadic Social Interactions
- arxiv url: http://arxiv.org/abs/2104.02710v2
- Date: Wed, 7 Apr 2021 16:16:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:09:45.357011
- Title: The Multi-Agent Behavior Dataset: Mouse Dyadic Social Interactions
- Title(参考訳): マルチエージェント行動データセット:マウスdyadic social interaction
- Authors: Jennifer J. Sun, Tomomi Karigo, Dipam Chakraborty, Sharada P. Mohanty,
David J. Anderson, Pietro Perona, Yisong Yue, Ann Kennedy
- Abstract要約: 行動神経科学のマルチエージェントデータセットであるCaltech Mouse Social Interactions(CalMS21)データセットを紹介します。
私たちのデータセットは、自由に行動できるマウスのビデオから記録された、社会的相互作用の軌跡データから成り立っている。
calms21データセットは、マルチエージェントビヘイビアチャレンジ2021の一部であり、私たちの次のステップは、マルチエージェントビヘイビアを研究する他のドメインからのデータセットを組み込むことです。
- 参考スコア(独自算出の注目度): 39.265388879471686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent behavior modeling aims to understand the interactions that occur
between agents. We present a multi-agent dataset from behavioral neuroscience,
the Caltech Mouse Social Interactions (CalMS21) Dataset. Our dataset consists
of trajectory data of social interactions, recorded from videos of freely
behaving mice in a standard resident-intruder assay. The CalMS21 dataset is
part of the Multi-Agent Behavior Challenge 2021 and for our next step, our goal
is to incorporate datasets from other domains studying multi-agent behavior.
To help accelerate behavioral studies, the CalMS21 dataset provides a
benchmark to evaluate the performance of automated behavior classification
methods in three settings: (1) for training on large behavioral datasets all
annotated by a single annotator, (2) for style transfer to learn
inter-annotator differences in behavior definitions, and (3) for learning of
new behaviors of interest given limited training data. The dataset consists of
6 million frames of unlabelled tracked poses of interacting mice, as well as
over 1 million frames with tracked poses and corresponding frame-level behavior
annotations. The challenge of our dataset is to be able to classify behaviors
accurately using both labelled and unlabelled tracking data, as well as being
able to generalize to new annotators and behaviors.
- Abstract(参考訳): マルチエージェント行動モデリングはエージェント間の相互作用を理解することを目的としている。
行動神経科学のマルチエージェントデータセットであるCaltech Mouse Social Interactions (CalMS21) データセットについて述べる。
我々のデータセットは、標準的な居住イントルーダアッセイで自由に行動するマウスのビデオから記録された、社会的相互作用の軌跡データからなる。
calms21データセットは、マルチエージェントビヘイビアチャレンジ2021の一部であり、私たちの次のステップは、マルチエージェントビヘイビアを研究する他のドメインからのデータセットを組み込むことです。
行動研究を加速するために、calms21データセットは、3つの設定で自動行動分類手法の性能を評価するベンチマークを提供する。(1) 大規模行動データセットのトレーニングは、すべて1つの注釈によってアノテートされる、(2) スタイル転送は、行動定義におけるアノテーション間差異を学習する、(3) 限られた訓練データによって、関心のある新しい行動の学習である。
データセットは600万フレームのラベルなしのマウスの追跡されたポーズと、100万フレームの追跡されたポーズと対応するフレームレベルの振る舞いアノテーションで構成されている。
データセットの課題は、ラベル付きとラベルなしの追跡データの両方を使用して、行動を正確に分類できることと、新しい注釈や行動に一般化できることです。
関連論文リスト
- From Forest to Zoo: Great Ape Behavior Recognition with ChimpBehave [0.0]
ChimpBehaveは動物園で飼育されているチンパンジーの2時間以上のビデオ(約193,000フレーム)を特徴とする新しいデータセットだ。
ChimpBehaveは、アクション認識のためのバウンディングボックスやビヘイビアラベルに細心の注意を払ってアノテートする。
我々は、最先端のCNNベースの行動認識モデルを用いてデータセットをベンチマークする。
論文 参考訳(メタデータ) (2024-05-30T13:11:08Z) - Learning Mutual Excitation for Hand-to-Hand and Human-to-Human
Interaction Recognition [22.538114033191313]
相互励起グラフ畳み込み層を積み重ねた相互励起グラフ畳み込みネットワーク(me-GCN)を提案する。
Me-GCは各レイヤとグラフ畳み込み操作の各ステージで相互情報を学習する。
提案するme-GCは,最先端GCN法およびTransformer法より優れている。
論文 参考訳(メタデータ) (2024-02-04T10:00:00Z) - MMOE: Mixture of Multimodal Interaction Experts [115.20477067767399]
MMOEはマルチモーダルインタラクションの専門家の混在を指す。
本手法は, ラベルのないマルチモーダルデータセットから, 対話タイプによって自動的にデータポイントを分類し, それぞれのインタラクションに特化モデルを用いる。
実験結果から,本手法は,これらの課題のあるインタラクションのパフォーマンスを10%以上向上させ,皮肉な予測などのタスクに対して全体の2%向上をもたらす。
論文 参考訳(メタデータ) (2023-11-16T05:31:21Z) - Towards a Unified Transformer-based Framework for Scene Graph Generation
and Human-object Interaction Detection [116.21529970404653]
本稿では,Transformerアーキテクチャに基づく一段階統一モデルであるSG2HOI+を紹介する。
本手法では,SGGとHOI検出のタスクをシームレスに統一する2つの対話型階層変換器を用いる。
提案手法は最先端のHOI法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-03T07:25:57Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Incorporating Heterogeneous User Behaviors and Social Influences for
Predictive Analysis [32.31161268928372]
我々は,行動予測に異質なユーザ行動と社会的影響を取り入れることを目指している。
本稿では,行動シーケンスのコンテキストを考慮したLong-Short Term Memory (LSTM)を提案する。
残差学習に基づくデコーダは、社会的行動表現に基づいて、複数の高次クロス機能を自動的に構築するように設計されている。
論文 参考訳(メタデータ) (2022-07-24T17:05:37Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - SMEMO: Social Memory for Trajectory Forecasting [34.542209630734234]
本稿では、外部記憶装置として機能するエンドツーエンドのトレーニング可能なワーキングメモリに基づくニューラルネットワークを提案する。
提案手法は,異なるエージェントの動き間の説明可能な因果関係を学習し,軌跡予測データセットの最先端結果を得ることができることを示す。
論文 参考訳(メタデータ) (2022-03-23T14:40:20Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。