論文の概要: Single Run Action Detector over Video Stream -- A Privacy Preserving
Approach
- arxiv url: http://arxiv.org/abs/2102.03391v1
- Date: Fri, 5 Feb 2021 19:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:00:51.432914
- Title: Single Run Action Detector over Video Stream -- A Privacy Preserving
Approach
- Title(参考訳): ビデオストリーム上でのシングルランアクション検出 - プライバシ保護アプローチ
- Authors: Anbumalar Saravanan, Justin Sanchez, Hassan Ghasemzadeh, Aurelia
Macabasco-O'Connell and Hamed Tabkhi
- Abstract要約: 本稿では,リアルタイムなプライバシ保護行動検出装置であるSingle Run Action Detector(S-RAD)を提案する。
UCF-SportsとUR Fallデータセットの結果は、State-of-the-Artアプローチに匹敵する精度を示している。
- 参考スコア(独自算出の注目度): 13.247009439182769
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper takes initial strides at designing and evaluating a vision-based
system for privacy ensured activity monitoring. The proposed technology
utilizing Artificial Intelligence (AI)-empowered proactive systems offering
continuous monitoring, behavioral analysis, and modeling of human activities.
To this end, this paper presents Single Run Action Detector (S-RAD) which is a
real-time privacy-preserving action detector that performs end-to-end action
localization and classification. It is based on Faster-RCNN combined with
temporal shift modeling and segment based sampling to capture the human
actions. Results on UCF-Sports and UR Fall dataset present comparable accuracy
to State-of-the-Art approaches with significantly lower model size and
computation demand and the ability for real-time execution on edge embedded
device (e.g. Nvidia Jetson Xavier).
- Abstract(参考訳): 本稿では,プライバシを確保できるアクティビティモニタリングのためのビジョンベースのシステムの設計と評価に着手する。
人工知能(ai)を応用したプロアクティブシステムを用いて,人間の活動の継続的な監視,行動分析,モデリングを行う技術を提案する。
そこで本研究では,エンド・ツー・エンドの動作ローカライズと分類を行うリアルタイムプライバシ保護アクション検出器であるSingle Run Action Detector(S-RAD)を提案する。
これはfaster-rcnnとtemporal shift modelingとsegment based samplingを組み合わせることでヒューマンアクションをキャプチャする。
UCF-SportsとUR Fallデータセットの結果は、モデルサイズと計算要求が大幅に小さく、エッジ組み込みデバイス上でリアルタイムに実行できるなど、最先端のアプローチに匹敵する精度を示す。
Nvidia Jetson Xavier)。
関連論文リスト
- MAUCell: An Adaptive Multi-Attention Framework for Video Frame Prediction [0.0]
本稿では,GAN(Generative Adrative Networks)とアテンション機構を組み合わせたマルチアテンションユニット(MAUCell)を導入する。
新しい設計システムは、時間的連続性と空間的精度の平衡を維持し、信頼性の高い映像予測を提供する。
論文 参考訳(メタデータ) (2025-01-28T14:52:10Z) - Text-driven Online Action Detection [0.0]
ゼロショットおよび少数ショット学習をサポートするテキスト駆動型オンラインアクション検出アーキテクチャであるTOADを紹介する。
我々のモデルはTHUMOS14データセット上で82.46%のmAPを達成し、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2025-01-23T10:06:52Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Argus++: Robust Real-time Activity Detection for Unconstrained Video
Streams with Overlapping Cube Proposals [85.76513755331318]
Argus++は、制約のないビデオストリームを分析するための堅牢なリアルタイムアクティビティ検出システムである。
システム全体としては、スタンドアロンのコンシューマレベルのハードウェア上でのリアルタイム処理に最適化されている。
論文 参考訳(メタデータ) (2022-01-14T03:35:22Z) - Improving Variational Autoencoder based Out-of-Distribution Detection
for Embedded Real-time Applications [2.9327503320877457]
アウト・オブ・ディストリビューション(OD)検出は、リアルタイムにアウト・オブ・ディストリビューションを検出するという課題に対処する新しいアプローチである。
本稿では,自律走行エージェントの周囲の有害な動きを頑健に検出する方法について述べる。
提案手法は,OoD因子の検出能力を一意に改善し,最先端手法よりも42%向上した。
また,本モデルでは,実験した実世界およびシミュレーション駆動データに対して,最先端技術よりも97%の精度でほぼ完璧に一般化した。
論文 参考訳(メタデータ) (2021-07-25T07:52:53Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Weighted Average Precision: Adversarial Example Detection in the Visual
Perception of Autonomous Vehicles [10.72357267154474]
本稿では,実用的な自律走行物体検出出力のための新しい距離測定法を提案する。
提案手法は17.76%の精度で既存の単フレームmAPベースのAE検出よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-25T23:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。