論文の概要: An Example of Privacy and Data Protection Best Practices for Biometrics
Data Processing in Border Control: Lesson Learned from SMILE
- arxiv url: http://arxiv.org/abs/2201.03401v1
- Date: Mon, 10 Jan 2022 15:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:44:48.075677
- Title: An Example of Privacy and Data Protection Best Practices for Biometrics
Data Processing in Border Control: Lesson Learned from SMILE
- Title(参考訳): 境界制御におけるバイオメトリックスデータ処理のためのプライバシーとデータ保護のベストプラクティスの例:SMILEから学んだ教訓
- Authors: Mohamed Abomhara and Sule Yildirim Yayilgan
- Abstract要約: データの誤用、個人のプライバシーの妥協、および/または承認されたデータの処理は不可逆である。
これは部分的には、システム開発プロセスにおける設計によるデータ保護とプライバシの統合のための方法やガイダンスの欠如によるものである。
データコントローラと開発者のためのガイダンスを提供するために、プライバシーとデータ保護のベストプラクティスの例を示す。
- 参考スコア(独自算出の注目度): 0.9442139459221784
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Biometric recognition is a highly adopted technology to support different
kinds of applications, ranging from security and access control applications to
low enforcement applications. However, such systems raise serious privacy and
data protection concerns. Misuse of data, compromising the privacy of
individuals and/or authorized processing of data may be irreversible and could
have severe consequences on the individual's rights to privacy and data
protection. This is partly due to the lack of methods and guidance for the
integration of data protection and privacy by design in the system development
process. In this paper, we present an example of privacy and data protection
best practices to provide more guidance for data controllers and developers on
how to comply with the legal obligation for data protection. These privacy and
data protection best practices and considerations are based on the lessons
learned from the SMart mobILity at the European land borders (SMILE) project.
- Abstract(参考訳): バイオメトリック認識は、セキュリティやアクセス制御アプリケーションから低執行アプリケーションまで、さまざまな種類のアプリケーションをサポートするために広く採用されている技術である。
しかし、このようなシステムは深刻なプライバシーとデータ保護の懸念を引き起こす。
データの誤用、個人のプライバシー侵害、および/または許可されたデータの処理は不可逆的であり、個人のプライバシーとデータ保護の権利に重大な影響を及ぼす可能性がある。
これは部分的に、システム開発プロセスにおける設計によるデータ保護とプライバシの統合のための方法とガイダンスの欠如によるものです。
本稿では,プライバシとデータ保護のベストプラクティスの例を示し,データ保護に関する法的義務を遵守する方法について,データコントローラや開発者に対してさらなるガイダンスを提供する。
これらのプライバシーとデータ保護のベストプラクティスと考慮は、欧州土地国境プロジェクト(SMILE)でSMartモビリティから学んだ教訓に基づいている。
関連論文リスト
- Balancing Innovation and Privacy: Data Security Strategies in Natural Language Processing Applications [3.380276187928269]
本研究では,差分プライバシーに基づく新しいアルゴリズムを導入することにより,自然言語処理(NLP)におけるプライバシ保護に対処する。
差分プライバシー機構を導入することにより、ランダムノイズを付加しながらデータ解析結果の精度と信頼性を確保することができる。
提案アルゴリズムの有効性は、精度(0.89)、精度(0.85)、リコール(0.88)などの性能指標によって実証される。
論文 参考訳(メタデータ) (2024-10-11T06:05:10Z) - Privacy-Preserving Data Management using Blockchains [0.0]
データプロバイダは、データ使用量の変化によって、既存のプライバシの好みをコントロールし、更新する必要がある。
本稿では,データプロバイダがプライベートで機密性の高いデータを保存するためのブロックチェーンベースの方法論を提案する。
論文 参考訳(メタデータ) (2024-08-21T01:10:39Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - AI-Driven Anonymization: Protecting Personal Data Privacy While
Leveraging Machine Learning [5.015409508372732]
本稿では、個人データのプライバシー保護と匿名化の促進を研究の中心的目的とする。
機械学習の差分プライバシー保護アルゴリズムを使用して、個人データのプライバシ保護と検出を実現する。
また、プライバシと個人データ保護に関連する機械学習の既存の課題に対処し、改善提案を提供し、データセットに影響を与える要因を分析して、タイムリーな個人データプライバシ検出と保護を可能にする。
論文 参考訳(メタデータ) (2024-02-27T04:12:25Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - An operational architecture for privacy-by-design in public service
applications [0.26249027950824505]
独立規制監視に基づくプライバシ・バイ・デザインのための運用アーキテクチャを提案する。
既存の技術に基づくアーキテクチャの実装の可能性について、簡単に論じる。
論文 参考訳(メタデータ) (2020-06-08T14:57:29Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。