論文の概要: Explaining models relating objects and privacy
- arxiv url: http://arxiv.org/abs/2405.01646v1
- Date: Thu, 2 May 2024 18:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 14:54:33.218903
- Title: Explaining models relating objects and privacy
- Title(参考訳): オブジェクトとプライバシに関連するモデルの説明
- Authors: Alessio Xompero, Myriam Bontonou, Jean-Michel Arbona, Emmanouil Benetos, Andrea Cavallaro,
- Abstract要約: 画像から抽出したオブジェクトを用いて、なぜ画像がプライベートであると予測されるのかを判断するプライバシーモデルを評価する。
プライバシ決定の主要な要因は、個人カテゴリの存在と、その濃度であることを示す。
- 参考スコア(独自算出の注目度): 33.78605193864911
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately predicting whether an image is private before sharing it online is difficult due to the vast variety of content and the subjective nature of privacy itself. In this paper, we evaluate privacy models that use objects extracted from an image to determine why the image is predicted as private. To explain the decision of these models, we use feature-attribution to identify and quantify which objects (and which of their features) are more relevant to privacy classification with respect to a reference input (i.e., no objects localised in an image) predicted as public. We show that the presence of the person category and its cardinality is the main factor for the privacy decision. Therefore, these models mostly fail to identify private images depicting documents with sensitive data, vehicle ownership, and internet activity, or public images with people (e.g., an outdoor concert or people walking in a public space next to a famous landmark). As baselines for future benchmarks, we also devise two strategies that are based on the person presence and cardinality and achieve comparable classification performance of the privacy models.
- Abstract(参考訳): さまざまなコンテンツやプライバシーそのものの主観的な性質のために、画像がオンラインで共有する前にプライベートであるかどうかを正確に予測することは難しい。
本稿では,画像から抽出したオブジェクトを用いたプライバシモデルの評価を行い,画像がなぜプライベートであるかを判断する。
これらのモデルの決定を説明するために、我々は、どのオブジェクト(およびそれらの特徴のどれ)が、公開として予測される参照入力(つまり、画像に局所化されたオブジェクトは存在しない)に関して、プライバシ分類に関連があるかを識別し、定量化するために、特徴属性を使用する。
プライバシ決定の主要な要因は、個人カテゴリの存在と、その濃度であることを示す。
そのため、これらのモデルは、機密データ、車両の所有、インターネット活動、人々との公開画像(例えば、野外コンサートや有名なランドマークの隣の公共空間を歩いている人々)を含む文書を描写したプライベート画像の特定にほとんど失敗している。
将来のベンチマークのベースラインとして、個人の存在と信条に基づく2つの戦略を考案し、プライバシモデルの同等の分類性能を達成する。
関連論文リスト
- ID-Cloak: Crafting Identity-Specific Cloaks Against Personalized Text-to-Image Generation [54.14901999875917]
本研究は、画像の保護を行うアイデンティティ固有のクロークの作成について検討する。
我々は、モデルが通常の出力から遠ざけることを奨励する新しい目的によって、アイデンティティ固有のクロークを構築する。
提案手法は,個人固有のクローク設定とともに,現実的なプライバシ保護の顕著な進歩を示す。
論文 参考訳(メタデータ) (2025-02-12T03:52:36Z) - Image Privacy Protection: A Survey [32.020322218775526]
画像は、重要なコミュニケーション媒体として機能し、キーポイントの迅速な理解を容易にする視覚的に係わるフォーマットで情報を提示する。
適切に管理されていない場合、この情報は個人的利益のために搾取に脆弱であり、プライバシー権やその他の法的権利を侵害する可能性がある。
既存のレビューは特定のシナリオによって分類されるか、特定のプライバシー目的によって分類される傾向がある。
論文 参考訳(メタデータ) (2024-12-05T08:09:25Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - SHAN: Object-Level Privacy Detection via Inference on Scene Heterogeneous Graph [5.050631286347773]
プライバシオブジェクト検出は、画像内のプライベートオブジェクトを正確に見つけることを目的としている。
既存の手法は、精度、一般化、解釈可能性の重大な欠陥に悩まされている。
本稿では、画像からシーン異質グラフを構成するモデルであるSHAN(Scene Heterogeneous Graph Attention Network)を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:32:14Z) - Only My Model On My Data: A Privacy Preserving Approach Protecting one
Model and Deceiving Unauthorized Black-Box Models [11.59117790048892]
本研究では、認証されたモデルによる正確な推論を維持する人間認識可能な画像を生成することにより、未調査の実用的プライバシー保護ユースケースに取り組む。
その結果、生成した画像は、保護されたモデルの精度を維持し、認証されていないブラックボックスモデルの平均精度を、ImageNet、Celeba-HQ、AffectNetのデータセットでそれぞれ11.97%、6.63%、55.51%に下げることができた。
論文 参考訳(メタデータ) (2024-02-14T17:11:52Z) - Human-interpretable and deep features for image privacy classification [32.253391125106674]
本稿では,画像のプライバシ分類に適した機能について論じるとともに,プライバシに特有かつ人間に解釈可能な8つの特徴を提案する。
これらの機能は、ディープラーニングモデルの性能を高め、それ自身で、より高次元の深い機能と比較して、プライバシ分類のためのイメージ表現を改善する。
論文 参考訳(メタデータ) (2023-10-30T14:39:43Z) - Content-based Graph Privacy Advisor [38.733077459065704]
本稿では,画像のプライバシを予測するための手がかりとして,シーン情報とオブジェクトの濃度を用いた画像プライバシー分類器を提案する。
我々のグラフプライバシ・アドバイザ(GPA)モデルは、最先端のグラフモデルを単純化し、その性能を改善する。
論文 参考訳(メタデータ) (2022-10-20T11:12:42Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。