論文の概要: A Self-aware Personal Assistant for Making Personalized Privacy
Decisions
- arxiv url: http://arxiv.org/abs/2205.06544v1
- Date: Fri, 13 May 2022 10:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 13:15:22.326632
- Title: A Self-aware Personal Assistant for Making Personalized Privacy
Decisions
- Title(参考訳): 個人化プライバシ決定のための自己認識型パーソナルアシスタント
- Authors: Gonul Ayci, Murat Sensoy, Arzucan \"Ozg\"Ur, Pinar Yolum
- Abstract要約: 本稿では、ディープラーニングを用いて、そのプライバシーラベルに基づいてコンテンツを分類するパーソナルアシスタントを提案する。
リスクファクタや自身のラベルなど、ユーザのプライバシに対する自身の理解をファクタリングすることで、パーソナルアシスタントはユーザ毎のレコメンデーションをパーソナライズすることができる。
- 参考スコア(独自算出の注目度): 3.988307519677766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many software systems, such as online social networks enable users to share
information about themselves. While the action of sharing is simple, it
requires an elaborate thought process on privacy: what to share, with whom to
share, and for what purposes. Thinking about these for each piece of content to
be shared is tedious. Recent approaches to tackle this problem build personal
assistants that can help users by learning what is private over time and
recommending privacy labels such as private or public to individual content
that a user considers sharing. However, privacy is inherently ambiguous and
highly personal. Existing approaches to recommend privacy decisions do not
address these aspects of privacy sufficiently. Ideally, a personal assistant
should be able to adjust its recommendation based on a given user, considering
that user's privacy understanding. Moreover, the personal assistant should be
able to assess when its recommendation would be uncertain and let the user make
the decision on her own. Accordingly, this paper proposes a personal assistant
that uses evidential deep learning to classify content based on its privacy
label. An important characteristic of the personal assistant is that it can
model its uncertainty in its decisions explicitly, determine that it does not
know the answer, and delegate from making a recommendation when its uncertainty
is high. By factoring in the user's own understanding of privacy, such as risk
factors or own labels, the personal assistant can personalize its
recommendations per user. We evaluate our proposed personal assistant using a
well-known data set. Our results show that our personal assistant can
accurately identify uncertain cases, personalize them to its user's needs, and
thus helps users preserve their privacy well.
- Abstract(参考訳): オンラインソーシャルネットワークのような多くのソフトウェアシステムは、ユーザーが自身の情報を共有することができる。
共有のアクションは単純ですが、プライバシに関する精巧な思考プロセスが必要です。
共有すべきコンテンツごとにこれらについて考えるのは面倒です。
この問題に対処する最近のアプローチは、ユーザが時間とともにプライベートであることを学習し、プライベートやパブリックなどのプライバシラベルを、ユーザが共有を考えている個々のコンテンツに推奨することで、ユーザを支援するパーソナルアシスタントを構築する。
しかし、プライバシーは本質的に曖昧で、非常に個人的なものだ。
プライバシー決定を推奨する既存のアプローチは、プライバシーのこれらの側面に十分対応していない。
理想的には、パーソナルアシスタントはユーザーのプライバシーの理解を考慮して、特定のユーザーに基づいてレコメンデーションを調整できるべきです。
さらに、パーソナルアシスタントは、いつ推薦が不確実になるかを判断し、ユーザが自身で決定を下す必要がある。
そこで本稿では,自明なディープラーニングを用いて,プライバシーラベルに基づくコンテンツ分類を行うパーソナルアシスタントを提案する。
パーソナルアシスタントの重要な特徴は、その決定においてその不確実性を明示的にモデル化し、その答えを知らないと判断し、不確実性が高ければ推薦を控えることである。
リスク要因や自身のラベルなど、ユーザのプライバシに対する自身の理解をファクタリングすることで、パーソナルアシスタントはユーザ毎のレコメンデーションをパーソナライズすることができる。
提案するパーソナルアシスタントをよく知られたデータセットを用いて評価する。
私たちのパーソナルアシスタントは、不確実性のあるケースを正確に識別し、ユーザのニーズに合わせてパーソナライズし、ユーザのプライバシの保護に役立ちます。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Randomized algorithms for precise measurement of differentially-private,
personalized recommendations [6.793345945003182]
本稿では,高精度かつ偏りのある測定を容易にするパーソナライズされたレコメンデーションのためのアルゴリズムを提案する。
提案するプライバシ保護アルゴリズムが,ユーザエクスペリエンスや広告主の価値,プラットフォーム収益に関連する重要な指標に与える影響を定量化するために,オフライン実験を実施している。
論文 参考訳(メタデータ) (2023-08-07T17:34:58Z) - PEAK: Explainable Privacy Assistant through Automated Knowledge
Extraction [1.0609815608017064]
本稿ではプライバシ決定のための説明を生成するためのプライバシアシスタントを提案する。
生成された説明は、プライバシアシスタントのレコメンデーションを理解するために使用することができる。
生成した説明を最先端のプライバシアシスタントに組み込むことで、これを実現する方法を示す。
論文 参考訳(メタデータ) (2023-01-05T14:25:20Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Leveraging Privacy Profiles to Empower Users in the Digital Society [7.350403786094707]
市民のプライバシーと倫理は、ますますデジタル化されつつある社会によってもたらされる懸念の中核にある。
我々は、フィットネス領域から収集された既存のデータセットに関する実証的研究を通じて、プライバシの次元に注目し、上記の方向のステップに貢献する。
その結果、セマンティック駆動型質問のコンパクトなセットは、複雑なドメイン依存質問よりもユーザを識別するのに役立つことがわかった。
論文 参考訳(メタデータ) (2022-04-01T15:31:50Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Investigating Personalisation-Privacy Paradox Among Young Irish
Consumers: A Case of Smart Speakers [0.0]
本研究では、スマートスピーカーの文脈におけるパーソナライズとプライバシのパラドックスについて検討する。
これは、プライバシーリスクとそれに対応するプライバシー保護行動に対する認識の観点から、スマートスピーカーのユーザと非ユーザの違いを示唆している。
論文 参考訳(メタデータ) (2021-08-23T05:39:08Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。