論文の概要: Enabling Versatile Privacy Interfaces Using Machine-Readable
Transparency Information
- arxiv url: http://arxiv.org/abs/2302.10991v2
- Date: Mon, 17 Apr 2023 14:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 20:52:31.360879
- Title: Enabling Versatile Privacy Interfaces Using Machine-Readable
Transparency Information
- Title(参考訳): 機械可読性情報を用いた汎用プライバシーインタフェースの実現
- Authors: Elias Gr\"unewald, Johannes M. Halkenh\"au{\ss}er, Nicola Leschke,
Johanna Washington, Cristina Paupini, Frank Pallas
- Abstract要約: プライバシには、表示のコンテキスト、個人の好み、およびデータ主題の個人的能力が組み込まれなければならない、と我々は主張する。
データコントローラからデータ対象への透明性情報の提供方法に関する一般的なモデルを提供する。
機械可読な透明性情報を用いて透明性を高める方法と、データコントローラがそれぞれの規制義務を満たす方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transparency regarding the processing of personal data in online services is
a necessary precondition for informed decisions on whether or not to share
personal data. In this paper, we argue that privacy interfaces shall
incorporate the context of display, personal preferences, and individual
competences of data subjects following the principles of universal design and
usable privacy. Doing so requires -- among others -- to consciously decouple
the provision of transparency information from their ultimate presentation. To
this end, we provide a general model of how transparency information can be
provided from a data controller to data subjects, effectively leveraging
machine-readable transparency information and facilitating versatile
presentation interfaces. We contribute two actual implementations of said
model: 1) a GDPR-aligned privacy dashboard and 2) a chatbot and virtual voice
assistant enabled by conversational AI. We evaluate our model and
implementations with a user study and find that these approaches provide
effective and time-efficient transparency. Consequently, we illustrate how
transparency can be enhanced using machine-readable transparency information
and how data controllers can meet respective regulatory obligations.
- Abstract(参考訳): オンラインサービスにおける個人データの処理に関する透明性は、個人データを共有すべきか否かの判断に必要条件である。
本稿では,プライバシインタフェースは,ユニバーサルデザインの原則と使用可能なプライバシに則って,表示のコンテキスト,個人の嗜好,個人的データ主体のコンピテンスを取り入れるべきである,と論じる。
そのためには、透明性情報の供給を究極のプレゼンテーションから意識的に分離する必要がある。
この目的のために,データコントローラからデータオブジェクトへの透過性情報の提供方法に関する一般的なモデルを提供し,機械可読性情報を有効に活用し,多用途なプレゼンテーションインタフェースを容易化する。
このモデルの実際の実装は2つあります。
1)GDPR対応のプライバシーダッシュボード
2)会話型AIによって実現されたチャットボットと仮想音声アシスタント。
モデルと実装をユーザ調査で評価し、これらのアプローチが効果的で時間効率の良い透明性をもたらすことを見出します。
その結果、機械可読透明性情報を用いて透明性を向上し、データコントローラがそれぞれの規制義務を満たす方法を説明する。
関連論文リスト
- Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Extending Business Process Management for Regulatory Transparency [0.0]
規制の透明性を特徴とするBPMNへのプラグイン拡張を提供することで、ビジネスプロセスとアプリケーションシステム間のギャップを埋めます。
ビジネスプロセスにおける個人データフローの発見と分析にプロセスマイニング技術を活用します。
論文 参考訳(メタデータ) (2024-06-14T12:08:34Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Towards Cross-Provider Analysis of Transparency Information for Data
Protection [0.0]
本稿では,サービスプロバイダ間の大規模透明性情報分析を実現するための新しいアプローチを提案する。
我々は、高度な透明性情報分析のための一般的なアプローチ、オープンソースのアーキテクチャ、クエリ可能な分析プラットフォームという形での実装を提供する。
今後の作業は、私たちのコントリビューションに基づいて、隠れたデータ共有プラクティスに関する洞察を得ることができます。
論文 参考訳(メタデータ) (2023-09-01T10:36:09Z) - A design theory for transparency of information privacy practices [0.0]
情報システムの普及は、社会的価値としてのプライバシーに対する深刻な脅威をますます引き起こす。
この脅威を軽減する1つのアプローチは、情報プライバシプラクティス(TIPP)の透明性を確立することで、消費者が情報をどのように処理するかをよりよく理解できるようにすることである。
我々は、プライバシーを社会的価値とする観点からTIPPを確立するのに有用な透明性アーティファクト設計のための理論基盤(TIPP理論)を開発する。
論文 参考訳(メタデータ) (2023-07-05T21:39:38Z) - Hawk: DevOps-driven Transparency and Accountability in Cloud Native
Systems [0.0]
透明性は現代のプライバシー規制の最も重要な原則の1つである。
データコントローラは、個人データの収集、処理、保管、転送に関する正確な情報を提供する必要がある。
論文 参考訳(メタデータ) (2023-06-04T22:09:42Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Trustworthy Transparency by Design [57.67333075002697]
本稿では,ユーザ信頼とエクスペリエンスに関する研究を取り入れた,ソフトウェア設計のための透明性フレームワークを提案する。
私たちのフレームワークは、その設計に透明性を取り入れたソフトウェアの開発を可能にします。
論文 参考訳(メタデータ) (2021-03-19T12:34:01Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - TILT: A GDPR-Aligned Transparency Information Language and Toolkit for
Practical Privacy Engineering [0.0]
TILTは透明性情報を表すために設計された透明性情報言語およびツールキットである。
形式的な透明性言語に必要なものを特定するために、透明性義務を詳細に分析する。
そこで本研究では,形式言語を規定し,それぞれに完全に実装されたツールキットを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。