論文の概要: I-ViSE: Interactive Video Surveillance as an Edge Service using
Unsupervised Feature Queries
- arxiv url: http://arxiv.org/abs/2003.04169v1
- Date: Mon, 9 Mar 2020 14:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:38:29.831263
- Title: I-ViSE: Interactive Video Surveillance as an Edge Service using
Unsupervised Feature Queries
- Title(参考訳): I-ViSE: 教師なし機能クエリを用いたエッジサービスとしてのインタラクティブビデオ監視
- Authors: Seyed Yahya Nikouei, Yu Chen, Alexander Aved, Erik Blasch
- Abstract要約: 本稿では、教師なし機能クエリに基づくエッジサービス(I-ViSE)としてインタラクティブビデオ監視を提案する。
I-ViSEのプロトタイプはエッジフォッグコンピューティングのパラダイムに従って構築され、実験により、I-ViSE方式がシーン認識の設計目標を2秒以内で満たすことを確認した。
- 参考スコア(独自算出の注目度): 70.69741666849046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Situation AWareness (SAW) is essential for many mission critical
applications. However, SAW is very challenging when trying to immediately
identify objects of interest or zoom in on suspicious activities from thousands
of video frames. This work aims at developing a queryable system to instantly
select interesting content. While face recognition technology is mature, in
many scenarios like public safety monitoring, the features of objects of
interest may be much more complicated than face features. In addition, human
operators may not be always able to provide a descriptive, simple, and accurate
query. Actually, it is more often that there are only rough, general
descriptions of certain suspicious objects or accidents. This paper proposes an
Interactive Video Surveillance as an Edge service (I-ViSE) based on
unsupervised feature queries. Adopting unsupervised methods that do not reveal
any private information, the I-ViSE scheme utilizes general features of a human
body and color of clothes. An I-ViSE prototype is built following the edge-fog
computing paradigm and the experimental results verified the I-ViSE scheme
meets the design goal of scene recognition in less than two seconds.
- Abstract(参考訳): AWareness (SAW)は多くのミッションクリティカルなアプリケーションに必須である。
しかし、興味のあるオブジェクトを即座に識別したり、何千ものビデオフレームから不審なアクティビティを拡大しようとする場合、SAWは非常に難しい。
本研究の目的は、興味深いコンテンツを即座に選択できるクエリ可能なシステムを開発することである。
顔認識技術は成熟しているが、公共の安全監視のような多くのシナリオでは、関心のあるオブジェクトの機能は顔の特徴よりもずっと複雑かもしれない。
加えて、人間の演算子は常に記述的でシンプルで正確なクエリを提供できるとは限らない。
実際には、不審な物や事故に関する粗雑で一般的な記述しか存在しないことが多い。
本稿では、教師なし機能クエリに基づくエッジサービス(I-ViSE)としてインタラクティブビデオ監視を提案する。
プライベート情報を公開しない教師なしの手法を採用するため、I-ViSEスキームは人体の一般的な特徴と衣服の色を利用する。
I-ViSEのプロトタイプはエッジフォッグコンピューティングのパラダイムに従って構築され、実験により、I-ViSE方式がシーン認識の設計目標を2秒以内で満たすことを確認した。
関連論文リスト
- Privacy-Preserving Video Anomaly Detection: A Survey [10.899433437231139]
Video Anomaly Detection (VAD)は、オープンスペースから収集された監視ビデオのパターンを自動的に分析し、物理的接触なしに損傷を引き起こす可能性のある異常事象を検出することを目的としている。
ビデオ伝送と使用における透明性の欠如は、プライバシーと倫理に関する一般の懸念を高め、VADの現実世界の応用を制限する。
近年,データ,特徴,システムなど,さまざまな観点から体系的な研究を行うことによって,VADのプライバシーに関する懸念に焦点が当てられている。
本稿は、P2VADの進歩を初めて体系的にレビューし、その範囲を定義し、直感的な分類法を提供する。
論文 参考訳(メタデータ) (2024-11-21T20:29:59Z) - Detect2Interact: Localizing Object Key Field in Visual Question Answering (VQA) with LLMs [5.891295920078768]
本稿では,物体の視覚的フィールド検出のための高度な手法を提案する。
まず,画像中の物体の詳細な空間地図を生成するために,SAMモデルを用いた。
次に、Vision Studioを使用してセマンティックオブジェクト記述を抽出する。
第3に、GPT-4の常識知識を用いて、オブジェクトの意味論と空間マップとのギャップを埋める。
論文 参考訳(メタデータ) (2024-04-01T14:53:36Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - MVSA-Net: Multi-View State-Action Recognition for Robust and Deployable Trajectory Generation [6.032808648673282]
LfOパラダイム(Learning-from-observation、LfO)は、ロボットが実行されているのを見るだけでタスクを実行することを学ぶための、人間にインスパイアされたモードである。
タスクアクティビティの複数の視点を認識できるように,SA-Netモデルを一般化したマルチビューSA-Netを提案する。
論文 参考訳(メタデータ) (2023-11-14T18:53:28Z) - Understanding Policy and Technical Aspects of AI-Enabled Smart Video
Surveillance to Address Public Safety [2.2427353485837545]
本稿では、AI対応スマートビデオ監視の設計において、対処に必要なプライバシー上の懸念と要件を明らかにする。
我々は、コンピュータビジョン分析、統計データ分析、クラウドネイティブサービス、エンドユーザーアプリケーションを組み合わせた、初のエンドツーエンドのAI対応プライバシ保護スマートビデオ監視システムを提案する。
論文 参考訳(メタデータ) (2023-02-08T19:54:35Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - ASOD60K: Audio-Induced Salient Object Detection in Panoramic Videos [79.05486554647918]
本研究では,パノラマビデオから有能な物体を分離する新しいタスクであるPV-SODを提案する。
既存の固定レベルやオブジェクトレベルの塩分濃度検出タスクとは対照的に,多モードの塩分濃度検出(SOD)に焦点を当てる。
AsOD60Kという,6レベル階層の4K解像度ビデオフレームを含む,最初の大規模データセットを収集する。
論文 参考訳(メタデータ) (2021-07-24T15:14:20Z) - Exploit Clues from Views: Self-Supervised and Regularized Learning for
Multiview Object Recognition [66.87417785210772]
本研究では,マルチビュー自己教師型学習(MV-SSL)の問題点について検討する。
対象不変」表現を追求し,自己指導型学習のための新しい代理課題を提案する。
実験の結果,ビュー不変プロトタイプ埋め込み(VISPE)による認識と検索は,他の自己教師あり学習方法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-28T07:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。