論文の概要: An Example of Privacy and Data Protection Best Practices for Biometrics
Data Processing in Border Control: Lesson Learned from SMILE
- arxiv url: http://arxiv.org/abs/2201.03401v1
- Date: Mon, 10 Jan 2022 15:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:44:48.075677
- Title: An Example of Privacy and Data Protection Best Practices for Biometrics
Data Processing in Border Control: Lesson Learned from SMILE
- Title(参考訳): 境界制御におけるバイオメトリックスデータ処理のためのプライバシーとデータ保護のベストプラクティスの例:SMILEから学んだ教訓
- Authors: Mohamed Abomhara and Sule Yildirim Yayilgan
- Abstract要約: データの誤用、個人のプライバシーの妥協、および/または承認されたデータの処理は不可逆である。
これは部分的には、システム開発プロセスにおける設計によるデータ保護とプライバシの統合のための方法やガイダンスの欠如によるものである。
データコントローラと開発者のためのガイダンスを提供するために、プライバシーとデータ保護のベストプラクティスの例を示す。
- 参考スコア(独自算出の注目度): 0.9442139459221784
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Biometric recognition is a highly adopted technology to support different
kinds of applications, ranging from security and access control applications to
low enforcement applications. However, such systems raise serious privacy and
data protection concerns. Misuse of data, compromising the privacy of
individuals and/or authorized processing of data may be irreversible and could
have severe consequences on the individual's rights to privacy and data
protection. This is partly due to the lack of methods and guidance for the
integration of data protection and privacy by design in the system development
process. In this paper, we present an example of privacy and data protection
best practices to provide more guidance for data controllers and developers on
how to comply with the legal obligation for data protection. These privacy and
data protection best practices and considerations are based on the lessons
learned from the SMart mobILity at the European land borders (SMILE) project.
- Abstract(参考訳): バイオメトリック認識は、セキュリティやアクセス制御アプリケーションから低執行アプリケーションまで、さまざまな種類のアプリケーションをサポートするために広く採用されている技術である。
しかし、このようなシステムは深刻なプライバシーとデータ保護の懸念を引き起こす。
データの誤用、個人のプライバシー侵害、および/または許可されたデータの処理は不可逆的であり、個人のプライバシーとデータ保護の権利に重大な影響を及ぼす可能性がある。
これは部分的に、システム開発プロセスにおける設計によるデータ保護とプライバシの統合のための方法とガイダンスの欠如によるものです。
本稿では,プライバシとデータ保護のベストプラクティスの例を示し,データ保護に関する法的義務を遵守する方法について,データコントローラや開発者に対してさらなるガイダンスを提供する。
これらのプライバシーとデータ保護のベストプラクティスと考慮は、欧州土地国境プロジェクト(SMILE)でSMartモビリティから学んだ教訓に基づいている。
関連論文リスト
- AI-Driven Anonymization: Protecting Personal Data Privacy While
Leveraging Machine Learning [5.015409508372732]
本稿では、個人データのプライバシー保護と匿名化の促進を研究の中心的目的とする。
機械学習の差分プライバシー保護アルゴリズムを使用して、個人データのプライバシ保護と検出を実現する。
また、プライバシと個人データ保護に関連する機械学習の既存の課題に対処し、改善提案を提供し、データセットに影響を与える要因を分析して、タイムリーな個人データプライバシ検出と保護を可能にする。
論文 参考訳(メタデータ) (2024-02-27T04:12:25Z) - You Still See Me: How Data Protection Supports the Architecture of ML
Surveillance [6.731053352452566]
人間のデータは機械学習のバックボーンを形成する。
データ保護法は、MLシステムの管理方法に強く依存している。
データ保護技術は、しばしば監視のインフラをサポートする方法で実施されている、と私たちは主張する。
論文 参考訳(メタデータ) (2024-02-09T18:39:29Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - Second layer data governance for permissioned blockchains: the privacy
management challenge [58.720142291102135]
新型コロナウイルス(COVID-19)やエボラウイルス(エボラ出血熱)のようなパンデミックの状況では、医療データを共有することに関連する行動は、大規模な感染を避け、死亡者を減らすために重要である。
この意味において、許可されたブロックチェーン技術は、スマートコントラクトが管理する不変で統一された分散データベースを通じて、データのオーナシップ、透明性、セキュリティを提供する権利をユーザに与えるために登場します。
論文 参考訳(メタデータ) (2020-10-22T13:19:38Z) - An operational architecture for privacy-by-design in public service
applications [0.26249027950824505]
独立規制監視に基づくプライバシ・バイ・デザインのための運用アーキテクチャを提案する。
既存の技術に基づくアーキテクチャの実装の可能性について、簡単に論じる。
論文 参考訳(メタデータ) (2020-06-08T14:57:29Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。