論文の概要: Bullying10K: A Neuromorphic Dataset towards Privacy-Preserving Bullying
Recognition
- arxiv url: http://arxiv.org/abs/2306.11546v1
- Date: Tue, 20 Jun 2023 13:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 14:03:54.411849
- Title: Bullying10K: A Neuromorphic Dataset towards Privacy-Preserving Bullying
Recognition
- Title(参考訳): Bullying10K:プライバシ保護のためのニューロモーフィックデータセット
- Authors: Yiting Dong, Yang Li, Dongcheng Zhao, Guobin Shen, Yi Zeng
- Abstract要約: 我々は、ダイナミックビジョンセンサー(DVS)カメラを利用して、暴力的なインシデントを検出し、静止画像の代わりにピクセルの明るさの変化を捉えてプライバシーを保護する。
1万のイベントセグメントがあり、合計120億のイベントと255GBのデータがある。
プライバシー保護ビデオシステムのトレーニングと開発のための貴重なリソースとして機能する。
- 参考スコア(独自算出の注目度): 9.545711665562713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevalence of violence in daily life poses significant threats to
individuals' physical and mental well-being. Using surveillance cameras in
public spaces has proven effective in proactively deterring and preventing such
incidents. However, concerns regarding privacy invasion have emerged due to
their widespread deployment. To address the problem, we leverage Dynamic Vision
Sensors (DVS) cameras to detect violent incidents and preserve privacy since it
captures pixel brightness variations instead of static imagery. We introduce
the Bullying10K dataset, encompassing various actions, complex movements, and
occlusions from real-life scenarios. It provides three benchmarks for
evaluating different tasks: action recognition, temporal action localization,
and pose estimation. With 10,000 event segments, totaling 12 billion events and
255 GB of data, Bullying10K contributes significantly by balancing violence
detection and personal privacy persevering. And it also poses a challenge to
the neuromorphic dataset. It will serve as a valuable resource for training and
developing privacy-protecting video systems. The Bullying10K opens new
possibilities for innovative approaches in these domains.
- Abstract(参考訳): 日常生活における暴力の流行は、個人の身体的および精神的健康に重大な脅威をもたらす。
公共空間での監視カメラの使用は、このような事件を積極的に抑止し防止するのに有効であることが証明されている。
しかし、プライバシの侵入に関する懸念は、広く展開されているため現れている。
この問題に対処するために、ダイナミックビジョンセンサー(DVS)カメラを使用して暴力的なインシデントを検出し、静的画像の代わりにピクセル輝度の変動をキャプチャするのでプライバシーを保護する。
我々は,現実のシナリオから様々な行動や複雑な動き,オクルージョンを包含するbullying10kデータセットを紹介する。
アクション認識、時間的アクションローカライゼーション、ポーズ推定という3つのタスクを評価するためのベンチマークを提供する。
1万のイベントセグメントがあり、合計120億のイベントと255gbのデータがある。
またそれは、ニューロモルフィックなデータセットにも挑戦する。
プライバシー保護ビデオシステムを訓練し、開発するための貴重なリソースとなる。
Bullying10Kは、これらの領域における革新的なアプローチの新たな可能性を開く。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Person Re-Identification without Identification via Event Anonymization [23.062038973576296]
ディープラーニングは、イベントカメラからのイメージを高い忠実度で再構築することができ、イベントベースのビジョンアプリケーションに対するプライバシーに対する潜在的な脅威を再導入した。
本稿では,プライバシを保護し,人物ReIdのような下流タスクを実行するという2つの目的のために,エンドツーエンドのネットワークアーキテクチャを共同で提案する。
論文 参考訳(メタデータ) (2023-08-08T17:04:53Z) - Privacy-Preserving Representations are not Enough -- Recovering Scene
Content from Camera Poses [63.12979986351964]
既存のプライバシ保護ローカライゼーションの取り組みは、クラウドベースのサービスにアクセス可能な攻撃者に対して防御することを目的としている。
攻撃者は、単にローカライズサービスに問い合わせるだけで、アクセスすることなくシーンの詳細を知ることができることを示す。
論文 参考訳(メタデータ) (2023-05-08T10:25:09Z) - Video Vision Transformers for Violence Detection [0.0]
提案手法では,対戦や敵対的な動き,暴力的な出来事をビデオシーケンスで正確に識別できる,新しいエンドツーエンドのディープラーニングベースビデオビジョントランスフォーマー(ViViT)を用いている。
評価結果はその後、地元の関係者に送信され、キャプチャされたビデオを分析することができる。
論文 参考訳(メタデータ) (2022-09-08T04:44:01Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - student dangerous behavior detection in school [27.02391566687007]
我々は,学生の危険行動を自動的に検出することに集中しており,多くの課題に直面している。
そこで我々は,マルチスケールのボディ特徴とキーポイントに基づくポーズ特徴を組み合わせた,新しいエンド・ツー・エンドの危険行動検出手法DangerDetを提案する。
私たちのデータセットでは、DangerDetは約11 FPSで71.0%のmAPを達成した。
論文 参考訳(メタデータ) (2022-02-19T08:23:36Z) - Surveilling Surveillance: Estimating the Prevalence of Surveillance
Cameras with Street View Data [13.77902229604303]
我々は、カメラ検出モデルを構築し、世界中の10大都市と6大都市から採取された160万のストリートビュー画像に適用する。
本モデルから推定したリコールを調整した後,道路から見える監視カメラの密度を推定できる。
米国10都市を詳細に分析したところ、カメラは商業地域、工業地域、混成地域、および非白人住民のシェアが高い地区に集中していることがわかった。
論文 参考訳(メタデータ) (2021-05-04T21:06:01Z) - CelebA-Spoof: Large-Scale Face Anti-Spoofing Dataset with Rich
Annotations [85.14435479181894]
CelebA-Spoofは大規模な顔アンチスプーフデータセットである。
10,177人の被験者の625,537枚の写真が含まれており、既存のデータセットよりもかなり大きい。
10のspoof型アノテーションと、オリジナルのCelebAデータセットから継承された40の属性アノテーションが含まれている。
論文 参考訳(メタデータ) (2020-07-24T04:28:29Z) - Vision-based Fight Detection from Surveillance Cameras [6.982738885923204]
本稿では,LSTMに基づく戦闘シーン分類問題の解法について検討する。
新たなデータセットが収集され、YouTubeで利用可能な監視カメラビデオの戦闘シーンで構成されている。
提案手法は,Xceptionモデル,Bi-LSTM,アテンションを統合して,戦闘シーン分類における最先端の精度を向上させる。
論文 参考訳(メタデータ) (2020-02-11T12:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。