論文の概要: Amplifying Privacy: Scaling Up Transparency Research Through Delegated
Access Requests
- arxiv url: http://arxiv.org/abs/2106.06844v1
- Date: Sat, 12 Jun 2021 19:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-26 21:40:23.186220
- Title: Amplifying Privacy: Scaling Up Transparency Research Through Delegated
Access Requests
- Title(参考訳): プライバシの強化 - デリゲートドアクセス要求による透明性調査のスケールアップ
- Authors: Hadi Asghari, Thomas van Biemen, Martijn Warnier
- Abstract要約: 参加者に対して,研究者へのアクセス権の委譲を求める方法を提案する。
我々は、これを行うための法的根拠、研究者とデータ分野の両方にもたらす利点、手続き的および技術的な設計について論じる。
オランダのパイロット研究でこの方法を試したところ、研究者と参加者の両方にウィンウィンが生まれることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, numerous studies have used 'data subject access requests' in
a collective manner, to tackle information asymmetries and shed light on data
collection and privacy practices of organizations. While successful at
increasing transparency, such studies are quite hard to conduct for the simple
fact that right of access is an individual right. This means that researchers
have to recruit participants and guide them through the often-cumbersome
process of access. In this paper, we present an alternative method: to ask
participants to delegate their right of access to the researchers. We discuss
the legal grounds for doing this, the advantages it can bring to both
researchers and data subjects, and present a procedural and technical design to
execute it in a manner that ensures data subjects stay informed and in charge
during the process. We tested our method in a pilot study in the Netherlands,
and found that it creates a win-win for both the researchers and the
participants. We also noted differences in how data controllers from various
sectors react to such requests and discuss some remaining challenges.
- Abstract(参考訳): 近年、多くの研究が「データ主題アクセス要求」を集団的に使用し、情報の非対称性に取り組み、データの収集と組織のプライバシープラクティスに光を当てている。
透明性の向上に成功しているが、アクセス権が個人の権利であるという単純な事実のため、このような研究は極めて困難である。
つまり、研究者は参加者を募集し、しばしば面倒なアクセスプロセスを通じてガイドしなければならない。
本稿では,参加者に対して,研究者に対してアクセス権の委譲を求める方法を提案する。
これを行う法的根拠、研究者とデータ科目の両方にメリットをもたらすこと、そして、そのプロセス中にデータ科目が情報を提供し、責任を負うように、手続き的かつ技術的な設計を提案すること、について論じる。
オランダのパイロット研究でこの方法を試したところ、研究者と参加者の両方にウィンウィンが生まれることがわかった。
また、さまざまなセクターのデータコントローラがこのような要求にどう反応するかの違いも指摘し、残りの課題について議論した。
関連論文リスト
- AccessShare: Co-designing Data Access and Sharing with Blind People [13.405455952573005]
盲人はしばしば、AIイノベーションのためのデータセットに画像データをコントリビュートするために呼ばれる。
しかし、投稿された画像の視覚検査はアクセスできない。
このギャップに対処するため、私たちは、スマートグラスを着用し、自宅にAIを注入したアプリケーションを使用して画像データを収集するシナリオに、10人の盲目の参加者を巻き込みます。
論文 参考訳(メタデータ) (2024-07-27T23:39:58Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Insights from an experiment crowdsourcing data from thousands of US Amazon users: The importance of transparency, money, and data use [6.794366017852433]
本稿は、米国5000人以上のユーザーから5年間にわたる、アクセス不能なAmazon購入履歴をクラウドソーシングする革新的なアプローチを共有する。
我々は参加者の同意を優先し、実験的な研究デザインを含むデータ収集ツールを開発した。
実験結果(N=6325)は、金銭的インセンティブと透明性の両方がデータ共有を大幅に増加させることを示している。
論文 参考訳(メタデータ) (2024-04-19T20:45:19Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Should I disclose my dataset? Caveats between reproducibility and
individual data rights [5.816090284071069]
裁判所文書のデジタル利用は研究者の可能性を増大させる。
しかし、個人データ保護法は、データ露出に制限を課している。
我々は,この問題に関する法的・倫理的考察と研究者のガイドラインを提示する。
論文 参考訳(メタデータ) (2022-11-01T14:42:11Z) - Exploring and Improving the Accessibility of Data Privacy-related
Information for People Who Are Blind or Low-vision [22.66113008033347]
視覚障害者のプライバシの態度と行動について検討する。
本研究は,21名の米国参加者を対象に,詳細なインタビューを行った。
この研究の目的は、よりアクセスしやすいプライバシーツールに対するユーザーグループのニーズをよりよく理解することである。
論文 参考訳(メタデータ) (2022-08-21T20:54:40Z) - A Roadmap for Greater Public Use of Privacy-Sensitive Government Data:
Workshop Report [11.431595898012377]
このワークショップは、政府のさまざまなレベルでのデータ共有の課題と成功に焦点を当てている。
初日は、公式なプライバシ技術、合成データ、暗号化アプローチなど、公開データの共有に適用される新しい技術の成功例に焦点を当てた。
論文 参考訳(メタデータ) (2022-06-17T17:20:29Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Yes-Yes-Yes: Donation-based Peer Reviewing Data Collection for ACL
Rolling Review and Beyond [58.71736531356398]
本稿では、ピアレビューデータについて詳細な議論を行い、ピアレビューデータ収集のための倫理的・法的デシダータの概要を述べるとともに、最初の継続的な寄付ベースのデータ収集ワークフローを提案する。
本稿では、ACL Rolling Reviewにおいて、このワークフローの現在進行中の実装について報告し、新たに収集したデータから得られた最初の洞察を提供する。
論文 参考訳(メタデータ) (2022-01-27T11:02:43Z) - Scaling up Search Engine Audits: Practical Insights for Algorithm
Auditing [68.8204255655161]
異なる地域に数百の仮想エージェントを配置した8つの検索エンジンの実験を行った。
複数のデータ収集にまたがる研究インフラの性能を実証する。
仮想エージェントは,アルゴリズムの性能を長時間にわたって監視するための,有望な場所である,と結論付けている。
論文 参考訳(メタデータ) (2021-06-10T15:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。