論文の概要: Mouse Lockbox Dataset: Behavior Recognition for Mice Solving Lockboxes
- arxiv url: http://arxiv.org/abs/2505.15408v1
- Date: Wed, 21 May 2025 11:51:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.605661
- Title: Mouse Lockbox Dataset: Behavior Recognition for Mice Solving Lockboxes
- Title(参考訳): マウスロックボックスデータセット:マウス解決ロックボックスの行動認識
- Authors: Patrik Reiske, Marcus N. Boon, Niek Andresen, Sole Traverso, Katharina Hohlbaum, Lars Lewejohann, Christa Thöne-Reineke, Olaf Hellwich, Henning Sprekeler,
- Abstract要約: 複雑な機械パズル、いわゆるロックボックスを解く個々のマウスのビデオデータセットを提示する。
110時間以上のプレイタイムは、3つの異なる視点から記録された行動を示す。
フレームレベルの行動分類手法のベンチマークとして、2つの異なるマウスのすべてのビデオに対して、人間のアノテーション付きラベルを提供する。
- 参考スコア(独自算出の注目度): 4.227601397207403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning and computer vision methods have a major impact on the study of natural animal behavior, as they enable the (semi-)automatic analysis of vast amounts of video data. Mice are the standard mammalian model system in most research fields, but the datasets available today to refine such methods focus either on simple or social behaviors. In this work, we present a video dataset of individual mice solving complex mechanical puzzles, so-called lockboxes. The more than 110 hours of total playtime show their behavior recorded from three different perspectives. As a benchmark for frame-level action classification methods, we provide human-annotated labels for all videos of two different mice, that equal 13% of our dataset. Our keypoint (pose) tracking-based action classification framework illustrates the challenges of automated labeling of fine-grained behaviors, such as the manipulation of objects. We hope that our work will help accelerate the advancement of automated action and behavior classification in the computational neuroscience community. Our dataset is publicly available at https://doi.org/10.14279/depositonce-23850
- Abstract(参考訳): 機械学習とコンピュータビジョンの手法は、大量のビデオデータの半自動分析を可能にするため、動物行動の研究に大きな影響を及ぼす。
マウスは、ほとんどの研究分野において標準的な哺乳類のモデルシステムであるが、今日ではそのような方法を洗練するためのデータセットは、単純な行動や社会的な行動に焦点を当てている。
本研究では,複雑な機械パズル,いわゆるロックボックスを解く個々のマウスのビデオデータセットを提案する。
110時間以上のプレイタイムは、3つの異なる視点から記録された行動を示す。
フレームレベルのアクション分類手法のベンチマークとして、データセットの13%に相当する2つの異なるマウスのすべてのビデオに対して、人間のアノテーション付きラベルを提供する。
私たちのキーポイント(目的)に基づくアクション分類フレームワークは、オブジェクトの操作など、きめ細かい振る舞いを自動でラベル付けすることの難しさを示しています。
我々は,我々の研究が,計算神経科学コミュニティにおける自動行動分類と行動分類の進展を促進するのに役立つことを期待している。
私たちのデータセットはhttps://doi.org/10.14279/depositonce-23850で公開されています。
関連論文リスト
- From Forest to Zoo: Great Ape Behavior Recognition with ChimpBehave [0.0]
ChimpBehaveは動物園で飼育されているチンパンジーの2時間以上のビデオ(約193,000フレーム)を特徴とする新しいデータセットだ。
ChimpBehaveは、アクション認識のためのバウンディングボックスやビヘイビアラベルに細心の注意を払ってアノテートする。
我々は、最先端のCNNベースの行動認識モデルを用いてデータセットをベンチマークする。
論文 参考訳(メタデータ) (2024-05-30T13:11:08Z) - BaboonLand Dataset: Tracking Primates in the Wild and Automating Behaviour Recognition from Drone Videos [0.8074955699721389]
本研究では,バブーン検出,追跡,行動認識のための,ドローンビデオからの新たなデータセットを提案する。
Baboon検出データセットは、ドローンビデオにすべてのbaboonをバウンディングボックスで手動でアノテートすることで作成されている。
行動認識データセットは、各動物を中心としたビデオサブリージョンであるミニシーンにトラックを変換することで生成される。
論文 参考訳(メタデータ) (2024-05-27T23:09:37Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - The Multi-Agent Behavior Dataset: Mouse Dyadic Social Interactions [39.265388879471686]
行動神経科学のマルチエージェントデータセットであるCaltech Mouse Social Interactions(CalMS21)データセットを紹介します。
私たちのデータセットは、自由に行動できるマウスのビデオから記録された、社会的相互作用の軌跡データから成り立っている。
calms21データセットは、マルチエージェントビヘイビアチャレンジ2021の一部であり、私たちの次のステップは、マルチエージェントビヘイビアを研究する他のドメインからのデータセットを組み込むことです。
論文 参考訳(メタデータ) (2021-04-06T17:58:47Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Muti-view Mouse Social Behaviour Recognition with Deep Graphical Model [124.26611454540813]
マウスの社会的行動分析は神経変性疾患の治療効果を評価する貴重なツールである。
マウスの社会行動の豊かな記述を創出する可能性から、ネズミの観察にマルチビュービデオ記録を使用することは、ますます注目を集めている。
本稿では,ビュー固有のサブ構造とビュー共有サブ構造を協調的に学習する,新しい多視点潜在意識・動的識別モデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T18:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。