論文の概要: Privacy-Aware Camera 2.0 Technical Report
- arxiv url: http://arxiv.org/abs/2603.04775v1
- Date: Thu, 05 Mar 2026 03:46:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.059931
- Title: Privacy-Aware Camera 2.0 Technical Report
- Title(参考訳): プライバシ対応カメラ2.0技術報告
- Authors: Huan Song, Shuyu Tian, Ting Long, Jiang Liu, Cheng Yuan, Zhenyu Jia, Jiawei Shao, Xuelong Li,
- Abstract要約: 物理脱感化、暗号化、難読化など、既存のプライバシー保護アプローチは、セマンティック理解を損なうことが多い。
本稿では,AI Flowパラダイムと協調エッジクラウドアーキテクチャに基づく,新たなプライバシ保護認知フレームワークを提案する。
- 参考スコア(独自算出の注目度): 48.075034699787004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing deployment of intelligent sensing technologies in highly sensitive environments such as restrooms and locker rooms, visual surveillance systems face a profound privacy-security paradox. Existing privacy-preserving approaches, including physical desensitization, encryption, and obfuscation, often compromise semantic understanding or fail to ensure mathematically provable irreversibility. Although Privacy Camera 1.0 eliminated visual data at the source to prevent leakage, it provided only textual judgments, leading to evidentiary blind spots in disputes. To address these limitations, this paper proposes a novel privacy-preserving perception framework based on the AI Flow paradigm and a collaborative edge-cloud architecture. By deploying a visual desensitizer at the edge, raw images are transformed in real time into abstract feature vectors through nonlinear mapping and stochastic noise injection under the Information Bottleneck principle, ensuring identity-sensitive information is stripped and original images are mathematically unreconstructable. The abstract representations are transmitted to the cloud for behavior recognition and semantic reconstruction via a "dynamic contour" visual language, achieving a critical balance between perception and privacy while enabling illustrative visual reference without exposing raw images.
- Abstract(参考訳): トイレやロッカールームなどの高感度環境にインテリジェントなセンサー技術が展開されるにつれ、視覚監視システムは、プライバシーとセキュリティの深刻なパラドックスに直面している。
物理脱感化、暗号化、難読化などの既存のプライバシー保護アプローチは、しばしば意味的理解を損なうか、数学的に証明可能な不可逆性を保証するのに失敗する。
プライバシカメラ1.0は、リークを防ぐためにソースの視覚データを排除したが、テキストによる判断のみを提供し、論争の明確な盲点となった。
これらの制約に対処するために,AI Flowパラダイムと協調エッジクラウドアーキテクチャに基づく,新たなプライバシ保護型認識フレームワークを提案する。
エッジにビジュアルデセンシタイザを配置することにより、生画像は非線形マッピングと確率的ノイズ注入により、リアルタイムに抽象特徴ベクトルに変換され、同一性に敏感な情報が取り除かれ、元の画像は数学的に再構成不能である。
抽象表現は、「ダイナミックな輪郭」視覚言語を介して、行動認識と意味再構築のためにクラウドに送信され、知覚とプライバシの間に重要なバランスを保ちながら、生画像を公開することなく、図形的な視覚参照を可能にする。
関連論文リスト
- SIDeR: Semantic Identity Decoupling for Unrestricted Face Privacy [53.75084833636302]
本稿では,非制限顔プライバシー保護のためのセマンティックデカップリング駆動フレームワークSIDeRを提案する。
SIDeRは、顔画像をマシン認識可能な識別特徴ベクトルと視覚的に知覚可能なセマンティックな外観成分に分解する。
認証されたアクセスのために、SIDeRは正しいパスワードが提供されるときに元の形式に復元できる。
論文 参考訳(メタデータ) (2026-02-04T19:30:48Z) - A Real-Time Privacy-Preserving Behavior Recognition System via Edge-Cloud Collaboration [45.24567063896216]
従来のRGB監視は、視覚記録と記憶に関する重要な懸念を提起する。
既存のプライバシー保護手法は意味理解能力を損なうか、あるいは再構成攻撃に対する数学的不可逆性を保証できない。
本研究では,AI Flow理論フレームワークとエッジクラウド協調アーキテクチャに基づく,新たなプライバシ保護型認識技術を提案する。
論文 参考訳(メタデータ) (2026-01-30T12:55:36Z) - Privacy-Preserving in Connected and Autonomous Vehicles Through Vision to Text Transformation [0.9831489366502302]
本稿では,フィードバックベース強化学習(RL)と視覚言語モデル(VLM)を活用した,新たなプライバシ保護フレームワークを提案する。
イメージを意味論的に等価なテキスト記述に変換し、視覚的プライバシが保持されている間にシーン関連情報が保持されることを保証する。
評価結果は,プライバシ保護とテキスト品質の両方において,大幅な改善が見られた。
論文 参考訳(メタデータ) (2025-06-18T20:02:24Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に重大な脅威をもたらす。
この不正行為を防止するため、操作過程を妨害する積極的な防御法が提案されている。
本稿では,IDガード(ID-Guard)と呼ばれる顔の操作に対処するための普遍的な枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved Embeddings [22.338328674283062]
本稿では,ニューラルネットワークモデルによる顔画像の識別性を保ちながら,目に対して認識不能な顔画像を描画する,革新的な画像変換手法を提案する。
提案手法は、様々な人工知能アプリケーションにおいて、視覚データを歪曲し、派生した特徴を近接に保つために使用することができる。
同一の認識精度を維持しつつ、画像内容が70%以上変化する歪みを構築することができることを示す。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [9.402982368385569]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Human-Imperceptible Identification with Learnable Lensless Imaging [12.571999330435801]
認識精度を維持しながら、視覚的プライバシを保護する学習可能なレンズレスイメージングフレームワークを提案する。
得られた画像が人間に知覚できないようにするために, 総変動, 可逆性, 制限された等尺性に基づいて, いくつかの損失関数を設計した。
論文 参考訳(メタデータ) (2023-02-04T22:58:46Z) - Privacy-Preserving Image Acquisition Using Trainable Optical Kernel [50.1239616836174]
本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
論文 参考訳(メタデータ) (2021-06-28T11:08:14Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。