論文の概要: Low-power, Continuous Remote Behavioral Localization with Event Cameras
- arxiv url: http://arxiv.org/abs/2312.03799v1
- Date: Wed, 6 Dec 2023 14:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 17:28:43.050379
- Title: Low-power, Continuous Remote Behavioral Localization with Event Cameras
- Title(参考訳): イベントカメラを用いた低消費電力連続遠隔行動定位
- Authors: Friedhelm Hamann, Suman Ghosh, Ignacio Juarez Martinez, Tom Hart, Alex
Kacelnik, Guillermo Gallego
- Abstract要約: イベントカメラは、バッテリー依存のリモート監視にユニークな利点を提供する。
我々はこのセンサを用いて、静電ディスプレイと呼ばれるチンストラップペンギンの挙動を定量化する。
実験により、イベントカメラの動作に対する自然な応答は、継続的な行動監視と検出に有効であることが示された。
- 参考スコア(独自算出の注目度): 9.650058016129721
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Researchers in natural science need reliable methods for quantifying animal
behavior. Recently, numerous computer vision methods emerged to automate the
process. However, observing wild species at remote locations remains a
challenging task due to difficult lighting conditions and constraints on power
supply and data storage. Event cameras offer unique advantages for
battery-dependent remote monitoring due to their low power consumption and high
dynamic range capabilities. We use this novel sensor to quantify a behavior in
Chinstrap penguins called ecstatic display. We formulate the problem as a
temporal action detection task, determining the start and end times of the
behavior. For this purpose, we recorded a colony of breeding penguins in
Antarctica during several weeks and labeled event data on 16 nests. The
developed method consists of a generator of candidate time intervals
(proposals) and a classifier of the actions within them. The experiments show
that the event cameras' natural response to motion is effective for continuous
behavior monitoring and detection, reaching a mean average precision (mAP) of
58% (which increases to 63% in good weather conditions). The results also
demonstrate the robustness against various lighting conditions contained in the
challenging dataset. The low-power capabilities of the event camera allows to
record three times longer than with a conventional camera. This work pioneers
the use of event cameras for remote wildlife observation, opening new
interdisciplinary opportunities. https://tub-rip.github.io/eventpenguins/
- Abstract(参考訳): 自然科学の研究者は動物行動の定量化に信頼できる方法を必要としている。
近年,プロセスを自動化するためのコンピュータビジョン手法が数多く登場している。
しかし,遠隔地における野生生物の観測は,照明条件や電力供給・データ貯蔵の制約などにより困難な課題となっている。
イベントカメラは、低消費電力と高ダイナミックレンジ機能のため、バッテリー依存のリモート監視にユニークな利点を提供する。
我々はこの新しいセンサーを用いて、静電ディスプレイと呼ばれるチンストラップペンギンの挙動を定量化する。
時間的行動検出タスクとして問題を定式化し,行動開始時刻と終了時刻を決定する。
この目的のために,南極で数週間にわたって繁殖するペンギンのコロニーを記録し,16羽の巣のイベントデータをラベル付けした。
提案手法は,候補時間間隔(韻律)の生成器と,その中の動作の分類器から構成される。
実験によれば、イベントカメラの運動に対する自然な反応は連続的な行動監視と検出に有効であり、平均平均精度 (map) は58%に達している(良好な気象条件下では63%まで増加する)。
また,難解なデータセットに含まれる様々な照明条件に対する堅牢性を示す。
イベントカメラの低消費電力化により、従来のカメラの3倍の時間記録が可能となる。
この研究は、リモート野生生物観察のためのイベントカメラの使用の先駆けとなり、新たな学際的な機会を開く。
https://tub-rip.github.io/eventpenguins/
関連論文リスト
- Fourier-based Action Recognition for Wildlife Behavior Quantification with Event Cameras [9.107129038623242]
本稿では,フーリエ変換に基づく行動認識手法を提案する。
特に,我々のアプローチを「静電ディスプレイ」に注釈を付けたペンギンの繁殖データセットに適用する。
我々のアプローチは単純かつ効果的であり、ディープニューラルネットワーク(DNN)よりもわずかに低い結果が得られることが分かりました。
論文 参考訳(メタデータ) (2024-10-09T09:06:37Z) - EventSleep: Sleep Activity Recognition with Event Cameras [12.584362614255213]
イベントカメラは暗黒環境でのアクティビティ認識のための有望な技術である。
我々は、医療アプリケーションにおけるイベントカメラの適合性を研究するための新しいデータセットと方法論であるEventSleepを紹介する。
論文 参考訳(メタデータ) (2024-04-02T10:03:23Z) - MISO: Monitoring Inactivity of Single Older Adults at Home using RGB-D Technology [5.612499701087411]
高齢者の自宅における移動の欠如をリアルタイムにモニタリングするための新しいアプリケーションを提案する。
高齢者の日常生活行動を監視するために,地域家庭における軽量カメラ監視システムを開発した。
論文 参考訳(メタデータ) (2023-11-03T21:51:33Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - A Temporal Densely Connected Recurrent Network for Event-based Human
Pose Estimation [24.367222637492787]
イベントカメラは、バイオインスパイアされた視覚センサーで、ピクセルごとの明るさが非同期に変化する。
本稿では,不完全情報の問題に対処する,新しい密結合型再帰型アーキテクチャを提案する。
この再帰的アーキテクチャにより、時間ステップをまたいだ逐次的だけでなく、非逐次的幾何的整合性も明示的にモデル化できる。
論文 参考訳(メタデータ) (2022-09-15T04:08:18Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - A Preliminary Research on Space Situational Awareness Based on Event
Cameras [8.27218838055049]
イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
トリガーイベントは、画素に照射された明るさの変化である。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
論文 参考訳(メタデータ) (2022-03-24T14:36:18Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。