論文の概要: A motion-based compression algorithm for resource-constrained video camera traps
- arxiv url: http://arxiv.org/abs/2405.14419v3
- Date: Wed, 02 Oct 2024 00:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:17:48.474386
- Title: A motion-based compression algorithm for resource-constrained video camera traps
- Title(参考訳): リソース制約付きビデオカメラトラップのためのモーションベース圧縮アルゴリズム
- Authors: Malika Nisal Ratnayake, Lex Gallon, Adel N. Toosi, Alan Dorin,
- Abstract要約: 本稿では,カメラトラップに特化して設計された動き解析に基づくビデオ圧縮アルゴリズムを提案する。
このアルゴリズムは、受粉監視に関連する動きを描写した画像領域のみを特定し、記憶する。
本実験は,昆虫行動解析における重要な情報を保存するアルゴリズムの能力を実証するものである。
- 参考スコア(独自算出の注目度): 4.349838917565205
- License:
- Abstract: Field-captured video facilitates detailed studies of spatio-temporal aspects of animal locomotion, decision-making and environmental interactions including predator-prey relationships and habitat utilisation. But even though data capture is cheap with mass-produced hardware, storage, processing and transmission overheads provide a hurdle to acquisition of high resolution video from field-situated edge computing devices. Efficient compression algorithms are therefore essential if monitoring is to be conducted on single-board computers in situations where such hurdles must be overcome. Animal motion tracking in the field has unique characteristics that necessitate the use of novel video compression techniques, which may be underexplored or unsuitable in other contexts. In this article, we therefore introduce a new motion analysis-based video compression algorithm specifically designed for camera traps. We implemented and tested this algorithm using a case study of insect-pollinator motion tracking on three popular edge computing platforms. The algorithm identifies and stores only image regions depicting motion relevant to pollination monitoring, reducing overall data size by an average of 87% across diverse test datasets. Our experiments demonstrate the algorithm's capability to preserve critical information for insect behaviour analysis through both manual observation and automatic analysis of the compressed footage. The method presented in this paper enhances the applicability of low-powered computer vision edge devices to remote, in situ animal motion monitoring, and improves the efficiency of playback during behavioural analyses. Our new software, EcoMotionZip, is available Open Access.
- Abstract(参考訳): フィールドキャプチャービデオは、動物移動、意思決定、捕食者-捕食者関係や生息地利用を含む環境相互作用の時空間的側面の詳細な研究を促進する。
しかし、大量生産されたハードウェア、ストレージ、処理、送信オーバーヘッドによって、データキャプチャーは安価であるにもかかわらず、フィールド選択エッジコンピューティングデバイスから高解像度ビデオを取得する上でハードルとなる。
したがって、そのようなハードルを克服しなければならない状況において、シングルボードコンピュータ上で監視を行う場合、効率的な圧縮アルゴリズムが不可欠である。
フィールドにおける動物の動き追跡は、他の文脈であまり探索されていない、あるいは不適当な、新しいビデオ圧縮技術の使用を必要とするユニークな特徴を持っている。
そこで本稿では,カメラトラップに特化して設計された動き解析に基づくビデオ圧縮アルゴリズムを提案する。
このアルゴリズムを,3つのエッジコンピューティングプラットフォーム上での昆虫・寄生虫運動追跡のケーススタディを用いて実装し,検証した。
このアルゴリズムは、受粉監視に関連する動きを描写した画像領域のみを特定し、保存し、さまざまなテストデータセットでデータサイズを平均87%削減する。
本実験は, 圧縮映像の自動解析と手動観察により, 昆虫の行動解析における重要な情報を保存するアルゴリズムの能力を実証するものである。
本稿では,低消費電力コンピュータビジョンエッジデバイスを遠隔動物動作監視に適用し,動作解析における再生効率を向上させる手法を提案する。
新しいソフトウェアであるEcoMotionZipがOpen Accessで利用可能です。
関連論文リスト
- Image Conductor: Precision Control for Interactive Video Synthesis [90.2353794019393]
映画製作とアニメーション制作は、しばしばカメラの遷移と物体の動きを調整するための洗練された技術を必要とする。
イメージコンダクタ(Image Conductor)は、カメラトランジションとオブジェクトの動きを正確に制御し、単一の画像からビデオアセットを生成する方法である。
論文 参考訳(メタデータ) (2024-06-21T17:55:05Z) - Enabling Cross-Camera Collaboration for Video Analytics on Distributed
Smart Cameras [7.609628915907225]
本稿では、スマートカメラ上でのクロスカメラコラボレーションによる分散ビデオ分析システムArgusを紹介する。
マルチカメラ・マルチターゲットトラッキングを主課題であるマルチカメラ・ビデオ分析とし、冗長で処理量の多いタスクを避ける新しい手法を開発した。
Argusは最先端と比較してオブジェクトの識別とエンドツーエンドのレイテンシを最大7.13倍と2.19倍に削減する。
論文 参考訳(メタデータ) (2024-01-25T12:27:03Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Argus++: Robust Real-time Activity Detection for Unconstrained Video
Streams with Overlapping Cube Proposals [85.76513755331318]
Argus++は、制約のないビデオストリームを分析するための堅牢なリアルタイムアクティビティ検出システムである。
システム全体としては、スタンドアロンのコンシューマレベルのハードウェア上でのリアルタイム処理に最適化されている。
論文 参考訳(メタデータ) (2022-01-14T03:35:22Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - Moving Object Detection for Event-based Vision using k-means Clustering [0.0]
物体検出の移動はコンピュータビジョンにおいて重要な課題である。
イベントベースのカメラは、人間の目の動きを模倣して動作するバイオインスパイアされたカメラである。
本稿では,イベントベースデータにおける移動物体の検出におけるk平均クラスタリング手法の適用について検討する。
論文 参考訳(メタデータ) (2021-09-04T14:43:14Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Robust and efficient post-processing for video object detection [9.669942356088377]
この研究は、従来の後処理メソッドの制限を克服する、新しい後処理パイプラインを導入している。
本手法は,特に高速移動物体に関する最先端の映像検出器の結果を改善する。
そして、YOLOのような効率的な静止画像検出器に適用することで、より計算集約的な検出器に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2020-09-23T10:47:24Z) - CONVINCE: Collaborative Cross-Camera Video Analytics at the Edge [1.5469452301122173]
本稿では,カメラ間の協調的なビデオ分析パイプラインを実現するため,カメラを集合体として見るための新しいアプローチであるCONVINCEを紹介する。
以上の結果から, CONVINCEは記録フレームの約25%を送信し, オブジェクト識別精度が$sim$91%であることを示す。
論文 参考訳(メタデータ) (2020-02-05T23:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。