論文の概要: Explain to Me: Towards Understanding Privacy Decisions
- arxiv url: http://arxiv.org/abs/2301.02079v1
- Date: Thu, 5 Jan 2023 14:25:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:36:03.940423
- Title: Explain to Me: Towards Understanding Privacy Decisions
- Title(参考訳): 私への説明:プライバシー決定の理解に向けて
- Authors: Gonul Ayci, P{\i}nar Yolum, Arzucan \"Ozg\"ur, Murat \c{S}ensoy
- Abstract要約: 本稿では,プライバシの説明作成手法を開発する。
関心領域における重要なトピックを特定し、意思決定のための説明スキームを提供し、それらを自動生成する。
本研究は,ユーザが有用な説明を見つける上で,どのような要因がどのような影響を及ぼすかを示すユーザスタディに対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 1.0609815608017064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy assistants help users manage their privacy online. Their tasks could
vary from detecting privacy violations to recommending sharing actions for
content that the user intends to share. Recent work on these tasks are
promising and show that privacy assistants can successfully tackle them.
However, for such privacy assistants to be employed by users, it is important
that these assistants can explain their decisions to users. Accordingly, this
paper develops a methodology to create explanations of privacy. The methodology
is based on identifying important topics in a domain of interest, providing
explanation schemes for decisions, and generating them automatically. We apply
our proposed methodology on a real-world privacy data set, which contains
images labeled as private or public to explain the labels. We evaluate our
approach on a user study that depicts what factors are influential for users to
find explanations useful.
- Abstract(参考訳): プライバシーアシスタントは、ユーザーがオンラインでプライバシーを管理するのを助ける。
彼らのタスクは、プライバシー侵害の検出から、ユーザーが共有しようとするコンテンツに対する共有アクションの推奨まで様々だ。
これらのタスクに関する最近の研究は有望であり、プライバシーアシスタントがそれに取り組むことに成功している。
しかし,このようなプライバシアシスタントをユーザに提供するためには,これらのアシスタントがユーザに対して自身の決定を説明できることが重要である。
そこで本稿では,プライバシの説明を作成する手法を考案する。
この方法論は、関心領域の重要なトピックを特定し、意思決定のための説明スキームを提供し、それらを自動生成することに基づいている。
提案手法を実世界のプライバシーデータセットに適用し,ラベルを説明するためにプライベートあるいはパブリックとラベルづけされた画像を含む。
提案手法は,ユーザにとって有用な説明を見つける上でどのような影響があるかを示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Models Matter: Setting Accurate Privacy Expectations for Local and Central Differential Privacy [14.40391109414476]
局所モデルと中心モデルにおける差分プライバシーの新たな説明を設計・評価する。
我々は、プライバシー栄養ラベルのスタイルにおける結果に焦点を当てた説明が、正確なプライバシー期待を設定するための有望なアプローチであることに気付きました。
論文 参考訳(メタデータ) (2024-08-16T01:21:57Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - A Self-aware Personal Assistant for Making Personalized Privacy
Decisions [3.988307519677766]
本稿では、ディープラーニングを用いて、そのプライバシーラベルに基づいてコンテンツを分類するパーソナルアシスタントを提案する。
リスクファクタや自身のラベルなど、ユーザのプライバシに対する自身の理解をファクタリングすることで、パーソナルアシスタントはユーザ毎のレコメンデーションをパーソナライズすることができる。
論文 参考訳(メタデータ) (2022-05-13T10:15:04Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。