論文の概要: Distributed Multi-agent Video Fast-forwarding
- arxiv url: http://arxiv.org/abs/2008.04437v1
- Date: Mon, 10 Aug 2020 22:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:14:36.164885
- Title: Distributed Multi-agent Video Fast-forwarding
- Title(参考訳): 分散マルチエージェントビデオ高速転送
- Authors: Shuyue Lan, Zhilu Wang, Amit K. Roy-Chowdhury, Ermin Wei, Qi Zhu
- Abstract要約: 本稿では,マルチビュー映像ストリームを協調的かつ適応的に高速に転送するDMVFという,コンセンサスに基づく分散マルチエージェントビデオ高速転送フレームワークを提案する。
実世界の監視ビデオデータセットVideoWebの文献的アプローチと比較して、本手法は重要なフレームのカバレッジを大幅に改善し、システム内で処理されるフレーム数を削減します。
- 参考スコア(独自算出の注目度): 30.843484383185473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many intelligent systems, a network of agents collaboratively perceives
the environment for better and more efficient situation awareness. As these
agents often have limited resources, it could be greatly beneficial to identify
the content overlapping among camera views from different agents and leverage
it for reducing the processing, transmission and storage of
redundant/unimportant video frames. This paper presents a consensus-based
distributed multi-agent video fast-forwarding framework, named DMVF, that
fast-forwards multi-view video streams collaboratively and adaptively. In our
framework, each camera view is addressed by a reinforcement learning based
fast-forwarding agent, which periodically chooses from multiple strategies to
selectively process video frames and transmits the selected frames at
adjustable paces. During every adaptation period, each agent communicates with
a number of neighboring agents, evaluates the importance of the selected frames
from itself and those from its neighbors, refines such evaluation together with
other agents via a system-wide consensus algorithm, and uses such evaluation to
decide their strategy for the next period. Compared with approaches in the
literature on a real-world surveillance video dataset VideoWeb, our method
significantly improves the coverage of important frames and also reduces the
number of frames processed in the system.
- Abstract(参考訳): 多くの知的システムにおいて、エージェントのネットワークは、より良くより効率的な状況認識のために環境を協調的に知覚する。
これらのエージェントはリソースが限られていることが多いため、異なるエージェントからのカメラビュー間で重なり合うコンテンツを識別し、冗長で重要でないビデオフレームの処理、送信、保存の削減に活用することは非常に有益である。
本稿では,マルチビュービデオストリームを協調的かつ適応的に処理する,dmvfと呼ばれるコンセンサスベースの分散マルチエージェントビデオファストフォワーディングフレームワークを提案する。
提案手法では,映像フレームを選択的に処理し,選択したフレームを調整可能なペースで送信する複数の戦略から周期的に選択する強化学習ベースの高速フォワードエージェントによって,各カメラビューに対処している。
適応期間毎に、各エージェントは隣接エージェントと通信し、選択されたフレーム自体とその隣のフレームの重要性を評価し、システム全体のコンセンサスアルゴリズムを介して他のエージェントとともに評価を洗練し、その評価を用いて次の期間の戦略を決定する。
実世界の監視ビデオデータセットVideoWebの文献的アプローチと比較して、本手法は重要なフレームのカバレッジを大幅に改善し、システム内で処理されるフレーム数を削減します。
関連論文リスト
- An Empirical Comparison of Video Frame Sampling Methods for Multi-Modal RAG Retrieval [1.6581184950812533]
自然言語質問を用いたビデオ・フレーム検索におけるフレームサンプリング手法のトレードオフについて検討する。
本稿では,ビデオRAGパターンが必要とするベクトルデータベース内の画像データ(ビデオフレーム)の保存と検索に焦点を当てた。
論文 参考訳(メタデータ) (2024-07-22T11:44:08Z) - An Empirical Study of Frame Selection for Text-to-Video Retrieval [62.28080029331507]
テキスト・ツー・ビデオ検索(TVR)は、クエリーテキストが与えられた大きなビデオギャラリーで最も関連性の高いビデオを見つけることを目的としている。
既存の方法は通常、TVRのビデオコンテンツを表すためにビデオ内のフレームのサブセットを選択する。
本稿では,TVRにおけるフレーム選択の実証的研究を行う。
論文 参考訳(メタデータ) (2023-11-01T05:03:48Z) - Collaborative Multi-Agent Video Fast-Forwarding [30.843484383185473]
分散および集中型設定における協調的マルチエージェントビデオ高速転送フレームワークを2つ開発する。
これらのフレームワークでは、各エージェントは、複数の戦略に基づいて、調整可能なペースで、ビデオフレームを選択的に処理またはスキップすることができる。
文献の他のアプローチと比較して、フレームワークは重要なフレームのカバレッジを向上し、各エージェントで処理されるフレームの数を著しく削減する。
論文 参考訳(メタデータ) (2023-05-27T20:12:19Z) - Context Sensing Attention Network for Video-based Person
Re-identification [20.865710012336724]
ビデオフレームに様々な干渉が存在するため、ReID(Video-based person re-identification)は困難である。
近年のアプローチでは、時間的集約戦略を用いてこの問題に対処している。
フレームの特徴抽出と時間的集約の両方を改善する新しいコンテキストセンシング注意ネットワーク(CSA-Net)を提案する。
論文 参考訳(メタデータ) (2022-07-06T12:48:27Z) - MHSCNet: A Multimodal Hierarchical Shot-aware Convolutional Network for
Video Summarization [61.69587867308656]
本稿では,MHSCNetと呼ばれるマルチモーダル階層型ショット・アウェア・畳み込みネットワークを提案する。
学習したショット認識表現に基づいて、MHSCNetは、ビデオのローカルおよびグローバルビューにおけるフレームレベルの重要度スコアを予測することができる。
論文 参考訳(メタデータ) (2022-04-18T14:53:33Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z) - Contrastive Transformation for Self-supervised Correspondence Learning [120.62547360463923]
野生のラベルのない動画を用いて,視覚的対応の自己監督学習について検討する。
本手法は,信頼性の高い対応推定のための映像内および映像間表現関連を同時に検討する。
我々のフレームワークは、近年の視覚的タスクにおける自己監督型対応手法よりも優れています。
論文 参考訳(メタデータ) (2020-12-09T14:05:06Z) - Temporal Context Aggregation for Video Retrieval with Contrastive
Learning [81.12514007044456]
フレームレベルの特徴間の時間的長距離情報を組み込んだビデオ表現学習フレームワークTCAを提案する。
提案手法は,映像レベルの特徴を持つ最先端の手法に対して,FIVR-200Kでは17% mAPの大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2020-08-04T05:24:20Z) - Video Super-resolution with Temporal Group Attention [127.21615040695941]
本稿では,時間的情報を階層的に効果的に組み込む新しい手法を提案する。
入力シーケンスは複数のグループに分けられ、それぞれがフレームレートの種類に対応する。
これは、いくつかのベンチマークデータセットにおける最先端のメソッドに対して良好なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-07-21T04:54:30Z) - Hierarchical Attention Network for Action Segmentation [45.19890687786009]
イベントの時間的セグメンテーションは、ビデオにおける人間の行動の自動認識のための重要なタスクであり、前駆体である。
我々は、時間とともに行動間の関係をよりよく学習できる、エンドツーエンドの教師あり学習手法を提案する。
我々は,MERLショッピング,50サラダ,ジョージア技術エゴセントリックデータセットなど,公開ベンチマークデータセットの課題を評価する。
論文 参考訳(メタデータ) (2020-05-07T02:39:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。