論文の概要: Stereo Co-capture System for Recording and Tracking Fish with Frame- and
Event Cameras
- arxiv url: http://arxiv.org/abs/2207.07332v1
- Date: Fri, 15 Jul 2022 08:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 14:16:03.403612
- Title: Stereo Co-capture System for Recording and Tracking Fish with Frame- and
Event Cameras
- Title(参考訳): フレームカメラとイベントカメラによる魚の記録と追跡のためのステレオコキャプチャシステム
- Authors: Friedhelm Hamann and Guillermo Gallego
- Abstract要約: 本稿では,従来のカメラとイベントカメラを用いたマルチアニマル視覚データ取得のためのコキャプチャシステムを提案する。
イベントカメラは、高時間分解能や時間冗長性抑制など、フレームベースのカメラよりも多くの利点がある。
本手法の有効性を実証するイベントベースマルチアニマルトラッキングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 11.87305195196131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a co-capture system for multi-animal visual data
acquisition using conventional cameras and event cameras. Event cameras offer
multiple advantages over frame-based cameras, such as a high temporal
resolution and temporal redundancy suppression, which enable us to efficiently
capture the fast and erratic movements of fish. We furthermore present an
event-based multi-animal tracking algorithm, which proves the feasibility of
the approach and sets the baseline for further exploration of combining the
advantages of event cameras and conventional cameras for multi-animal tracking.
- Abstract(参考訳): 本研究は,従来のカメラとイベントカメラを用いたマルチアニマル視覚データ取得のためのコキャプチャシステムを導入する。
イベントカメラは、高時間分解能や時間的冗長性抑制など、フレームベースのカメラよりも多くの利点があり、魚の高速で不規則な動きを効率的に捉えることができる。
さらに、イベントベースのマルチアニマルトラッキングアルゴリズムを提案し、この手法の有効性を証明し、イベントカメラと従来のカメラの利点を組み合わせたマルチアニマルトラッキングのためのベースラインを更に探究する。
関連論文リスト
- Enabling Cross-Camera Collaboration for Video Analytics on Distributed
Smart Cameras [7.609628915907225]
本稿では、スマートカメラ上でのクロスカメラコラボレーションによる分散ビデオ分析システムArgusを紹介する。
マルチカメラ・マルチターゲットトラッキングを主課題であるマルチカメラ・ビデオ分析とし、冗長で処理量の多いタスクを避ける新しい手法を開発した。
Argusは最先端と比較してオブジェクトの識別とエンドツーエンドのレイテンシを最大7.13倍と2.19倍に削減する。
論文 参考訳(メタデータ) (2024-01-25T12:27:03Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - TimeReplayer: Unlocking the Potential of Event Cameras for Video
Interpolation [78.99283105497489]
イベントカメラは、任意に複雑な動きのあるビデオを可能にする新しいデバイスである。
本稿では,コモディティカメラが捉えた映像とイベントとを補間するTimeReplayerアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-25T18:57:42Z) - 1000x Faster Camera and Machine Vision with Ordinary Devices [76.46540270145698]
我々は、光子の蓄積がしきい値に達したかどうかを各ビットが示すビットシーケンスアレイであるvidarを提示する。
我々は従来のカメラより1000倍高速なヴィダーカメラを開発した。
我々はまた、マシンの速度と生物学的視覚のメカニズムを組み合わせたスパイクニューラルネットワークベースのマシンビジョンシステムを開発した。
論文 参考訳(メタデータ) (2022-01-23T16:10:11Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Unveiling personnel movement in a larger indoor area with a
non-overlapping multi-camera system [23.195588088063577]
オーバーラップしない複数のカメラによる室内運動知覚の範囲を拡大する。
付加的なタイプのセンサーを導入することなく、歩行者の再識別の精度を向上させる。
論文 参考訳(メタデータ) (2021-04-10T01:44:26Z) - Asynchronous Multi-View SLAM [78.49842639404413]
既存のマルチカメラSLAMシステムは、すべてのカメラの同期シャッターを想定しています。
我々のフレームワークは、トラッキング、ローカルマッピング、ループクローズの間、非同期多フレーム間で情報を関連付けるために、連続時間モーションモデルを統合する。
論文 参考訳(メタデータ) (2021-01-17T00:50:01Z) - Real-Time Face & Eye Tracking and Blink Detection using Event Cameras [3.842206880015537]
イベントカメラには、各ピクセルの局所的な光強度の変化を捉え、非同期イベントのストリームを生成する、新しいニューロモルフィックな視覚センサが含まれている。
ドライバー監視システム(英: Driver monitoring system、DMS)は、ドライバーの身体的および認知状態を感知し理解するために設計されたキャビン内の安全システムである。
本稿では,運転者監視のための顔と視線を同時に検出・追跡する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T10:02:41Z) - CONVINCE: Collaborative Cross-Camera Video Analytics at the Edge [1.5469452301122173]
本稿では,カメラ間の協調的なビデオ分析パイプラインを実現するため,カメラを集合体として見るための新しいアプローチであるCONVINCEを紹介する。
以上の結果から, CONVINCEは記録フレームの約25%を送信し, オブジェクト識別精度が$sim$91%であることを示す。
論文 参考訳(メタデータ) (2020-02-05T23:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。