論文の概要: Low-power, Continuous Remote Behavioral Localization with Event Cameras
- arxiv url: http://arxiv.org/abs/2312.03799v2
- Date: Tue, 19 Mar 2024 16:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 00:01:19.784441
- Title: Low-power, Continuous Remote Behavioral Localization with Event Cameras
- Title(参考訳): イベントカメラを用いた低消費電力連続リモート行動定位
- Authors: Friedhelm Hamann, Suman Ghosh, Ignacio Juarez Martinez, Tom Hart, Alex Kacelnik, Guillermo Gallego,
- Abstract要約: イベントカメラは、バッテリー依存のリモート監視にユニークな利点を提供する。
我々はこのセンサを用いて、静電ディスプレイと呼ばれるチンストラップペンギンの挙動を定量化する。
実験により、イベントカメラの動作に対する自然な応答は、継続的な行動監視と検出に有効であることが示された。
- 参考スコア(独自算出の注目度): 9.107129038623242
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Researchers in natural science need reliable methods for quantifying animal behavior. Recently, numerous computer vision methods emerged to automate the process. However, observing wild species at remote locations remains a challenging task due to difficult lighting conditions and constraints on power supply and data storage. Event cameras offer unique advantages for battery-dependent remote monitoring due to their low power consumption and high dynamic range capabilities. We use this novel sensor to quantify a behavior in Chinstrap penguins called ecstatic display. We formulate the problem as a temporal action detection task, determining the start and end times of the behavior. For this purpose, we recorded a colony of breeding penguins in Antarctica for several weeks and labeled event data on 16 nests. The developed method consists of a generator of candidate time intervals (proposals) and a classifier of the actions within them. The experiments show that the event cameras' natural response to motion is effective for continuous behavior monitoring and detection, reaching a mean average precision (mAP) of 58% (which increases to 63% in good weather conditions). The results also demonstrate the robustness against various lighting conditions contained in the challenging dataset. The low-power capabilities of the event camera allow it to record significantly longer than with a conventional camera. This work pioneers the use of event cameras for remote wildlife observation, opening new interdisciplinary opportunities. https://tub-rip.github.io/eventpenguins/
- Abstract(参考訳): 自然科学の研究者は動物行動の定量化に信頼できる方法を必要としている。
近年,プロセスを自動化するために多数のコンピュータビジョン手法が出現している。
しかし、遠隔地で野生種を観察することは、困難な照明条件と電力供給とデータストレージの制約のため、依然として困難な課題である。
イベントカメラは、低消費電力と高ダイナミックレンジ能力のために、バッテリ依存の遠隔監視にユニークな利点を提供する。
我々はこの新しいセンサーを用いて、エコスタティックディスプレイと呼ばれるチンストラップペンギンの挙動を定量化する。
時間的行動検出タスクとして問題を定式化し,行動開始時刻と終了時刻を決定する。
この目的で,南極のペンギンの繁殖コロニーを数週間にわたって記録し,16羽の巣のイベントデータをラベル付けした。
提案手法は,候補時間間隔(韻律)の生成器と,その中の動作の分類器から構成される。
実験により、イベントカメラの動作に対する自然な反応は、連続的な行動監視と検出に有効であることが示され、平均的な平均精度(mAP)は58%に達した(良質な気象条件では63%まで上昇する)。
また,難易度データセットに含まれる各種照明条件に対するロバスト性を実証した。
イベントカメラの低消費電力化により、従来のカメラよりもはるかに長時間記録できる。
この研究は、リモート野生生物観察のためのイベントカメラの使用の先駆者となり、学際的な新たな機会を開拓した。
https://tub-rip.github.io/eventpenguins/
関連論文リスト
- Fourier-based Action Recognition for Wildlife Behavior Quantification with Event Cameras [9.107129038623242]
本稿では,フーリエ変換に基づく行動認識手法を提案する。
特に,我々のアプローチを「静電ディスプレイ」に注釈を付けたペンギンの繁殖データセットに適用する。
我々のアプローチは単純かつ効果的であり、ディープニューラルネットワーク(DNN)よりもわずかに低い結果が得られることが分かりました。
論文 参考訳(メタデータ) (2024-10-09T09:06:37Z) - EventSleep: Sleep Activity Recognition with Event Cameras [12.584362614255213]
イベントカメラは暗黒環境でのアクティビティ認識のための有望な技術である。
我々は、医療アプリケーションにおけるイベントカメラの適合性を研究するための新しいデータセットと方法論であるEventSleepを紹介する。
論文 参考訳(メタデータ) (2024-04-02T10:03:23Z) - MISO: Monitoring Inactivity of Single Older Adults at Home using RGB-D Technology [5.612499701087411]
高齢者の自宅における移動の欠如をリアルタイムにモニタリングするための新しいアプリケーションを提案する。
高齢者の日常生活行動を監視するために,地域家庭における軽量カメラ監視システムを開発した。
論文 参考訳(メタデータ) (2023-11-03T21:51:33Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - A Temporal Densely Connected Recurrent Network for Event-based Human
Pose Estimation [24.367222637492787]
イベントカメラは、バイオインスパイアされた視覚センサーで、ピクセルごとの明るさが非同期に変化する。
本稿では,不完全情報の問題に対処する,新しい密結合型再帰型アーキテクチャを提案する。
この再帰的アーキテクチャにより、時間ステップをまたいだ逐次的だけでなく、非逐次的幾何的整合性も明示的にモデル化できる。
論文 参考訳(メタデータ) (2022-09-15T04:08:18Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - A Preliminary Research on Space Situational Awareness Based on Event
Cameras [8.27218838055049]
イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
トリガーイベントは、画素に照射された明るさの変化である。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
論文 参考訳(メタデータ) (2022-03-24T14:36:18Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。