論文の概要: A benchmark for computational analysis of animal behavior, using animal-borne tags
- arxiv url: http://arxiv.org/abs/2305.10740v2
- Date: Wed, 10 Apr 2024 19:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 19:27:55.887133
- Title: A benchmark for computational analysis of animal behavior, using animal-borne tags
- Title(参考訳): 動物性タグを用いた動物行動の計算的分析のためのベンチマーク
- Authors: Benjamin Hoffman, Maddie Cusimano, Vittorio Baglione, Daniela Canestrari, Damien Chevallier, Dominic L. DeSantis, Lorène Jeantet, Monique A. Ladds, Takuya Maekawa, Vicente Mata-Silva, Víctor Moreno-González, Eva Trapote, Outi Vainio, Antti Vehkaoja, Ken Yoda, Katherine Zacarian, Ari Friedlaender,
- Abstract要約: 本稿では,行動アノテーション付きデータセットの集合であるBio-logger Ethogram Benchmark(BEBE)と,モデリングタスクと評価指標について述べる。
さらに、BEBEを用いて、人間の手首加速度計から収集したデータを自己監督したディープニューラルネットワークを用いて、バイオログデータに基づいて動物行動を特定するための、新しい自己教師型学習手法を試験した。
- 参考スコア(独自算出の注目度): 0.6156130656098191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animal-borne sensors ('bio-loggers') can record a suite of kinematic and environmental data, which can elucidate animal ecophysiology and improve conservation efforts. Machine learning techniques are used for interpreting the large amounts of data recorded by bio-loggers, but there exists no common framework for comparing the different machine learning techniques in this domain. To address this, we present the Bio-logger Ethogram Benchmark (BEBE), a collection of datasets with behavioral annotations, as well as a modeling task and evaluation metrics. BEBE is to date the largest, most taxonomically diverse, publicly available benchmark of this type, and includes 1654 hours of data collected from 149 individuals across nine taxa. In addition, using BEBE, we test a novel self-supervised learning approach to identifying animal behaviors based on bio-logger data, using a deep neural network pre-trained with self-supervision on data collected from human wrist-worn accelerometers. We show that this approach out-performs common alternatives, especially in a setting with a low amount of training data. Datasets, models, and evaluation code are made publicly available at https://github.com/earthspecies/BEBE, to enable community use of BEBE as a point of comparison in methods development.
- Abstract(参考訳): 動物を媒介とするセンサー(バイオログ)は、動物生態学を解明し、保護活動を改善するための、運動と環境のデータ群を記録できる。
機械学習技術はバイオログによって記録された大量のデータを解釈するために使用されるが、この領域で異なる機械学習技術を比較するための共通の枠組みは存在しない。
これを解決するために,行動アノテーション付きデータセットの集合であるBio-logger Ethogram Benchmark (BEBE) と,モデリングタスクと評価指標を提示する。
BEBEは現在、このタイプの最も大きく、最も多種多様で、一般に公開されているベンチマークであり、9つの分類群で149人の個人から収集された1654時間のデータを含んでいる。
さらに、BEBEを用いて、人間の手首加速度計から収集したデータを自己監督したディープニューラルネットワークを用いて、バイオログデータに基づいて動物行動を特定するための、新しい自己教師型学習手法を試験した。
このアプローチは、特にトレーニングデータが少ない環境では、一般的な選択肢よりも優れています。
データセット、モデル、評価コードはhttps://github.com/earthspecies/BEBEで公開されている。
関連論文リスト
- Automated Behavioral Analysis Using Instance Segmentation [2.043437148047176]
動物行動分析は、生命科学や生物医学研究など、様々な分野で重要な役割を果たしている。
利用可能なデータの不足とラベル付きデータセットの大量取得に伴う高コストが大きな課題となっている。
本稿では,これらの問題に対処するために,インスタンスセグメンテーションに基づくトランスファー学習を活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-12T20:36:36Z) - Spatial Implicit Neural Representations for Global-Scale Species Mapping [72.92028508757281]
ある種が観察された場所の集合を考えると、その種がどこにいても存在しないかを予測するためのモデルを構築することが目的である。
従来の手法は、新たな大規模クラウドソースデータセットを活用するのに苦労している。
本研究では,47k種の地理的範囲を同時に推定するために,空間入射ニューラル表現(SINR)を用いる。
論文 参考訳(メタデータ) (2023-06-05T03:36:01Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Deep Learning-based Cattle Activity Classification Using Joint
Time-frequency Data Representation [2.472770436480857]
本稿では,牛の行動・行動の分類と行動モデルの構築にシーケンシャルディープニューラルネットワークを用いた。
本研究の主な焦点は,センサデータの同時時間周波数領域表現の探索である。
3軸加速度計、磁力計、ジャイロスコープのセンサーから収集された300万以上のサンプルからなる実世界のデータセットに基づいています。
論文 参考訳(メタデータ) (2020-11-06T14:24:55Z) - Unsupervised Multi-Modal Representation Learning for Affective Computing
with Multi-Corpus Wearable Data [16.457778420360537]
我々は、人間の監督への依存を減らすために、教師なしの枠組みを提案する。
提案フレームワークは2つの畳み込み自己エンコーダを用いて、ウェアラブル心電図(ECG)と電磁気放射能(EDA)信号から潜時表現を学習する。
提案手法は, 同一のデータセット上での覚醒検出を行ない, 現状の成果よりも優れていた。
論文 参考訳(メタデータ) (2020-08-24T22:01:55Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z) - Machine learning approaches for identifying prey handling activity in
otariid pinnipeds [12.814241588031685]
本稿では,アザラシの捕食行動の同定に焦点をあてる。
考慮すべきデータは、アザラシに直接取り付けられたデバイスによって収集された3D加速度計と深度センサーのストリームである。
機械学習(ML)アルゴリズムに基づく自動モデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T15:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。