論文の概要: PRIVATEEDIT: A Privacy-Preserving Pipeline for Face-Centric Generative Image Editing
- arxiv url: http://arxiv.org/abs/2603.03412v1
- Date: Tue, 03 Mar 2026 18:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.046022
- Title: PRIVATEEDIT: A Privacy-Preserving Pipeline for Face-Centric Generative Image Editing
- Title(参考訳): PRIVATEEDIT:顔中心生成画像編集のためのプライバシ保護パイプライン
- Authors: Dipesh Tamboli, Vineet Punyamoorty, Atharv Pawar, Vaneet Aggarwal,
- Abstract要約: 生成画像編集は、プロのヘッドショット生成からアバタースタイリゼーションまで、変換可能なアプリケーションを可能にする。
これらのシステムは、しばしば高忠実な顔画像をサードパーティのモデルにアップロードすることを必要とし、生体認証のプライバシー、データ誤用、ユーザーの同意に関する懸念を提起する。
我々は,顔中心のユースケースで生体データを制御しながら,高品質な編集をサポートするプライバシー保護パイプラインを提案する。
- 参考スコア(独自算出の注目度): 39.82402524402139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative image editing have enabled transformative applications, from professional head shot generation to avatar stylization. However, these systems often require uploading high-fidelity facial images to third-party models, raising concerns around biometric privacy, data misuse, and user consent. We propose a privacy-preserving pipeline that supports high-quality editing while keeping users in control over their biometric data in face-centric use cases. Our approach separates identity-sensitive regions from editable image context using on-device segmentation and masking, enabling secure, user-controlled editing without modifying third-party generative models. Unlike traditional cloud-based tools, PRIVATEEDIT enforces privacy by default: biometric data is never exposed or transmitted. This design requires no access to or retraining of third-party models, making it compatible with a wide range of commercial APIs. By treating privacy as a core design constraint, our system supports responsible generative AI centered on user autonomy and trust. The pipeline includes a tunable masking mechanism that lets users control how much facial information is concealed, allowing them to balance privacy and output fidelity based on trust level or use case. We demonstrate its applicability in professional and creative workflows and provide a user interface for selective anonymization. By advocating privacy-by-design in generative AI, our work offers both technical feasibility and normative guidance for protecting digital identity. The source code is available at https://github.com/Dipeshtamboli/PrivateEdit-Privacy-Preserving-GenAI.
- Abstract(参考訳): 生成画像編集の最近の進歩は、プロのヘッドショット生成からアバタースタイリゼーションまで、トランスフォーメーションの応用を可能にしている。
しかし、これらのシステムは多くの場合、高忠実な顔画像をサードパーティのモデルにアップロードすることを必要とし、生体認証のプライバシー、データ誤用、ユーザーの同意に関する懸念を提起する。
我々は,顔中心のユースケースで生体データを制御しながら,高品質な編集をサポートするプライバシー保護パイプラインを提案する。
提案手法は,デバイス上のセグメンテーションとマスキングを用いて編集可能な画像コンテキストから識別に敏感な領域を分離し,サードパーティ生成モデルを変更することなく,セキュアでユーザ制御の編集を可能にする。
従来のクラウドベースのツールとは異なり、PRIVATEEDITはデフォルトでプライバシーを強制する。
この設計では、サードパーティモデルへのアクセスや再トレーニングは必要とせず、幅広い商用APIと互換性がある。
プライバシを中核的な設計制約として扱うことで、私たちのシステムは、ユーザの自律性と信頼を中心とした責任ある生成AIをサポートします。
このパイプラインには調整可能なマスキング機構があり、ユーザーは顔の情報がどれだけ隠されているかをコントロールできる。
プロフェッショナルおよびクリエイティブなワークフローにおける適用性を実証し、選択匿名化のためのユーザインターフェースを提供する。
生成AIにおけるプライバシ・バイ・デザインを提唱することで、我々の研究は、デジタルアイデンティティを保護するための技術的実現可能性と規範的ガイダンスの両方を提供する。
ソースコードはhttps://github.com/Dipeshtamboli/PrivateEdit-Privacy-Preserving-GenAIで公開されている。
関連論文リスト
- PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing [19.94455452402954]
FaceLockは、敵の摂動を最適化して生体情報を破壊または著しく変更する、ポートレート保護の新しいアプローチである。
我々の研究はバイオメトリック・ディフェンスを推進し、画像編集におけるプライバシー保護の実践の基礎を定めている。
論文 参考訳(メタデータ) (2024-11-25T18:59:03Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Adversarial Privacy-preserving Filter [33.957912657446485]
顔認識は、悪意のある顔画像の使用と潜在的なプライバシー問題に関して批判的に議論されてきた。
オンライン写真共有サービスは、悪意のあるクローラと顔認識アプリケーションのメインリポジトリとして意図せずに機能する。
この研究は、Adversarial Privacy-Preserving Filter(APF)と呼ばれるプライバシ保護ソリューションを開発し、オンラインの共有顔画像が悪用されるのを防ぐことを目的としている。
論文 参考訳(メタデータ) (2020-07-25T05:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。