論文の概要: Privacy-Enhanced Adaptive Authentication: User Profiling with Privacy Guarantees
- arxiv url: http://arxiv.org/abs/2410.20555v1
- Date: Sun, 27 Oct 2024 19:11:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:04.496495
- Title: Privacy-Enhanced Adaptive Authentication: User Profiling with Privacy Guarantees
- Title(参考訳): プライバシ強化されたAdaptive Authentication:プライバシ保証によるユーザプロファイリング
- Authors: Yaser Baseri, Abdelhakim Senhaji Hafid, Dimitrios Makrakis,
- Abstract要約: 本稿では,プライバシ強化型アダプティブ認証プロトコルを提案する。
リアルタイムリスクアセスメントに基づいて認証要求を動的に調整する。
CCPAなどのデータ保護規則を遵守することにより,セキュリティを向上するだけでなく,ユーザの信頼も向上する。
- 参考スコア(独自算出の注目度): 0.6554326244334866
- License:
- Abstract: User profiling is a critical component of adaptive risk-based authentication, yet it raises significant privacy concerns, particularly when handling sensitive data. Profiling involves collecting and aggregating various user features, potentially creating quasi-identifiers that can reveal identities and compromise privacy. Even anonymized profiling methods remain vulnerable to re-identification attacks through these quasi-identifiers. This paper introduces a novel privacy-enhanced adaptive authentication protocol that leverages Oblivious Pseudorandom Functions (OPRF), anonymous tokens, and Differential Privacy (DP) to provide robust privacy guarantees. Our proposed approach dynamically adjusts authentication requirements based on real-time risk assessments, enhancing security while safeguarding user privacy. By integrating privacy considerations into the core of adaptive risk-based adaptive authentication, this approach addresses a gap often overlooked in traditional models. Advanced cryptographic techniques ensure confidentiality, integrity, and unlinkability of user data, while differential privacy mechanisms minimize the impact of individual data points on overall analysis. Formal security and privacy proofs demonstrate the protocol's resilience against various threats and its ability to provide strong privacy guarantees. Additionally, a comprehensive performance evaluation reveals that the computational and communication overheads are manageable, making the protocol practical for real-world deployment. By adhering to data protection regulations such as GDPR and CCPA, our protocol not only enhances security but also fosters user trust and compliance with legal standards.
- Abstract(参考訳): ユーザプロファイリングは、アダプティブなリスクベースの認証において重要な要素であるが、特に機密データを扱う場合、重要なプライバシー上の懸念を生じさせる。
プロファイリングには、さまざまなユーザー機能の収集と集約が含まれる。
匿名化されたプロファイリング手法でさえ、これらの準識別器による再識別攻撃に対して脆弱なままである。
本稿では、OPRF(Oblivious Pseudorom Function)、匿名トークン、微分プライバシ(DP)を活用して、堅牢なプライバシ保証を提供する新しいプライバシ強化適応認証プロトコルを提案する。
提案手法は,リアルタイムリスク評価に基づく認証要求を動的に調整し,ユーザプライバシ保護を図りながらセキュリティを向上する。
プライバシの考慮事項を適応型リスクベースの適応認証のコアに組み込むことで、従来のモデルでは見過ごされがちなギャップに対処する。
高度な暗号技術は、ユーザデータの機密性、完全性、およびアンリンク性を保証し、一方、差分プライバシーメカニズムは、全体的な分析における個々のデータポイントの影響を最小限に抑える。
正式なセキュリティとプライバシの証明は、プロトコルの様々な脅威に対するレジリエンスと、強力なプライバシ保証を提供する能力を示している。
さらに、総合的な性能評価により、計算と通信のオーバーヘッドが管理可能であることが判明し、このプロトコルは実世界の展開に実用的である。
GDPR や CCPA などのデータ保護規制を遵守することにより,我々のプロトコルはセキュリティを向上するだけでなく,ユーザの信頼と法的基準の遵守も促進する。
関連論文リスト
- Real-Time Privacy Risk Measurement with Privacy Tokens for Gradient Leakage [15.700803673467641]
プライバシーに敏感なドメインにおけるディープラーニングモデルは、プライバシーリスクに関する懸念を増幅している。
トレーニング中にプライベート勾配から直接導出されるプライバシートークンの概念を提案する。
プライバシートークンは、トレーニングデータからのプライベート情報漏洩の程度に関する貴重な洞察を提供する。
我々は、トレーニングデータと勾配の関係を定量化するために、Mutual Information (MI) をロバストな指標として採用する。
論文 参考訳(メタデータ) (2025-02-05T06:20:20Z) - Distributed Identity for Zero Trust and Segmented Access Control: A Novel Approach to Securing Network Infrastructure [4.169915659794567]
本研究は、分散IDをZTA原則で適用した際のセキュリティ改善を評価する。
この研究は、分散IDを採用することで、全体的なセキュリティ姿勢を桁違いに向上させることができることを示唆している。
この研究は、技術的標準の洗練、分散IDの実践的利用の拡大、および現代のデジタルセキュリティ分野への応用を推奨している。
論文 参考訳(メタデータ) (2025-01-14T00:02:02Z) - Facial Expression Recognition with Controlled Privacy Preservation and Feature Compensation [24.619279669211842]
顔表情認識(FER)システムは、機密情報の潜在的な暴露により、重要なプライバシー上の懸念を生じさせる。
本稿では,FER機能を保ちながら識別情報を除去する手法を提案する。
プライバシを損なうことなく,パフォーマンスを最適化する制御されたプライバシ強化機構とタスク関連機能を強化する機能補償機構を導入する。
論文 参考訳(メタデータ) (2024-11-29T23:12:38Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Balancing Innovation and Privacy: Data Security Strategies in Natural Language Processing Applications [3.380276187928269]
本研究では,差分プライバシーに基づく新しいアルゴリズムを導入することにより,自然言語処理(NLP)におけるプライバシ保護に対処する。
差分プライバシー機構を導入することにより、ランダムノイズを付加しながらデータ解析結果の精度と信頼性を確保することができる。
提案アルゴリズムの有効性は、精度(0.89)、精度(0.85)、リコール(0.88)などの性能指標によって実証される。
論文 参考訳(メタデータ) (2024-10-11T06:05:10Z) - DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts [11.883785681042593]
DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
論文 参考訳(メタデータ) (2024-08-16T02:38:25Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。