論文の概要: PEAK: Explainable Privacy Assistant through Automated Knowledge
Extraction
- arxiv url: http://arxiv.org/abs/2301.02079v2
- Date: Wed, 31 May 2023 15:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 03:42:05.785372
- Title: PEAK: Explainable Privacy Assistant through Automated Knowledge
Extraction
- Title(参考訳): PEAK: 自動知識抽出による説明可能なプライバシアシスタント
- Authors: Gonul Ayci, Arzucan \"Ozg\"ur, Murat \c{S}ensoy, P{\i}nar Yolum
- Abstract要約: 本稿ではプライバシ決定のための説明を生成するためのプライバシアシスタントを提案する。
生成された説明は、プライバシアシスタントのレコメンデーションを理解するために使用することができる。
生成した説明を最先端のプライバシアシスタントに組み込むことで、これを実現する方法を示す。
- 参考スコア(独自算出の注目度): 1.0609815608017064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of online privacy, privacy assistants play a pivotal role in
empowering users to manage their privacy effectively. Although recent studies
have shown promising progress in tackling tasks such as privacy violation
detection and personalized privacy recommendations, a crucial aspect for
widespread user adoption is the capability of these systems to provide
explanations for their decision-making processes. This paper presents a privacy
assistant for generating explanations for privacy decisions. The privacy
assistant focuses on discovering latent topics, identifying explanation
categories, establishing explanation schemes, and generating automated
explanations. The generated explanations can be used by users to understand the
recommendations of the privacy assistant. Our user study of real-world privacy
dataset of images shows that users find the generated explanations useful and
easy to understand. Additionally, the generated explanations can be used by
privacy assistants themselves to improve their decision-making. We show how
this can be realized by incorporating the generated explanations into a
state-of-the-art privacy assistant.
- Abstract(参考訳): オンラインプライバシーの分野では、プライバシーアシスタントがユーザーのプライバシーを効果的に管理する上で重要な役割を果たしている。
最近の研究では、プライバシ侵害検出やパーソナライズされたプライバシ推奨といったタスクに取り組むことに有望な進展が示されているが、広くユーザ採用される上で重要な側面は、これらのシステムが意思決定プロセスの説明を提供する能力である。
本稿ではプライバシ決定のための説明を生成するためのプライバシアシスタントを提案する。
プライバシーアシスタントは、潜在トピックの発見、説明カテゴリの特定、説明スキームの確立、自動説明の生成に焦点を当てている。
生成された説明は、ユーザーがプライバシーアシスタントの推奨を理解するために使用できる。
実世界の画像のプライバシーデータセットに関するユーザ調査では、ユーザが生成した説明が有用で理解しやすいことがわかった。
さらに、生成された説明は、プライバシアシスタント自身が意思決定を改善するために使用できる。
生成した説明を最先端のプライバシアシスタントに組み込むことで、これを実現する方法を示す。
関連論文リスト
- Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Privacy-Preserving Matrix Factorization for Recommendation Systems using
Gaussian Mechanism [2.84279467589473]
本稿では,差分プライバシーフレームワークと行列因数分解に基づくプライバシ保護レコメンデーションシステムを提案する。
差分プライバシーは、プライバシを保存する機械学習アルゴリズムを設計するための強力で堅牢な数学的フレームワークであるため、敵が機密性の高いユーザー情報を抽出するのを防ぐことができる。
論文 参考訳(メタデータ) (2023-04-11T13:50:39Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - A Self-aware Personal Assistant for Making Personalized Privacy
Decisions [3.988307519677766]
本稿では、ディープラーニングを用いて、そのプライバシーラベルに基づいてコンテンツを分類するパーソナルアシスタントを提案する。
リスクファクタや自身のラベルなど、ユーザのプライバシに対する自身の理解をファクタリングすることで、パーソナルアシスタントはユーザ毎のレコメンデーションをパーソナライズすることができる。
論文 参考訳(メタデータ) (2022-05-13T10:15:04Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。