論文の概要: SEBA: Strong Evaluation of Biometric Anonymizations
- arxiv url: http://arxiv.org/abs/2407.06648v1
- Date: Tue, 9 Jul 2024 08:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 18:46:17.682676
- Title: SEBA: Strong Evaluation of Biometric Anonymizations
- Title(参考訳): SEBA:生体匿名化の強力な評価
- Authors: Julian Todt, Simon Hanisch, Thorsten Strufe,
- Abstract要約: 生体匿名化の強力な評価のためのフレームワークSEBAを紹介する。
使用が容易で拡張が容易なソフトウェアフレームワークで、最先端の方法論を組み合わせて実装する。
この議論の一環として、プライバシーとユーティリティのトレードオフをより簡単に評価できる新しい指標を紹介し、議論する。
- 参考スコア(独自算出の注目度): 3.18294468240512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biometric data is pervasively captured and analyzed. Using modern machine learning approaches, identity and attribute inferences attacks have proven high accuracy. Anonymizations aim to mitigate such disclosures by modifying data in a way that prevents identification. However, the effectiveness of some anonymizations is unclear. Therefore, improvements of the corresponding evaluation methodology have been proposed recently. In this paper, we introduce SEBA, a framework for strong evaluation of biometric anonymizations. It combines and implements the state-of-the-art methodology in an easy-to-use and easy-to-expand software framework. This allows anonymization designers to easily test their techniques using a strong evaluation methodology. As part of this discourse, we introduce and discuss new metrics that allow for a more straightforward evaluation of the privacy-utility trade-off that is inherent to anonymization attempts. Finally, we report on a prototypical experiment to demonstrate SEBA's applicability.
- Abstract(参考訳): 生体データは広範に捕捉され分析される。
現代の機械学習アプローチを使用することで、アイデンティティと属性推論の攻撃は高い精度を証明している。
匿名化は、識別を防止する方法でデータを変更することによって、そのような開示を緩和することを目的としている。
しかし、いくつかの匿名化の有効性は明らかでない。
そのため、近年、対応する評価手法の改善が提案されている。
本稿では,生体匿名化の強力な評価フレームワークSEBAを紹介する。
使用が容易で拡張が容易なソフトウェアフレームワークで、最先端の方法論を組み合わせて実装する。
これにより、匿名化デザイナは、強力な評価手法を使って、彼らのテクニックを簡単にテストできる。
この議論の一環として、匿名化の試みに固有のプライバシーとユーティリティのトレードオフをより簡単に評価できる新しい指標を紹介し、議論する。
最後に,SEBAの適用性を示すためのプロトタイプ実験について報告する。
関連論文リスト
- Hide in Plain Sight: Clean-Label Backdoor for Auditing Membership Inference [16.893873979953593]
本研究では,ステルスデータ監査のための新しいクリーンラベルバックドア方式を提案する。
我々のアプローチでは、ターゲットモデルの振る舞いを模倣するシャドウモデルによって生成される最適なトリガを用いる。
提案手法は,ブラックボックスアクセスによるロバストなデータ監査を可能にし,多様なデータセット間で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-11-24T20:56:18Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Towards more accurate and useful data anonymity vulnerability measures [1.3159777131162964]
本報告では,攻撃論文を多数検討し,いくつかの問題点を指摘し,リスクの過大評価に繋がる。
第一に、いくつかの論文は正しい統計的推測基準(または全く)を確立することができず、誤った測定結果をもたらす。
第二に、いくつかの論文では、現実的な会員ベースレートを使用せず、正確さが報告された場合、誤った精度の計測に繋がる。
論文 参考訳(メタデータ) (2024-03-11T10:40:08Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - A False Sense of Privacy: Towards a Reliable Evaluation Methodology for the Anonymization of Biometric Data [8.799600976940678]
生体データは、顔の特徴や歩行パターンのような特徴的な人間の特徴を含んでいる。
プライバシー保護は、匿名化の技法によって広範囲に提供される。
我々は、匿名化の性能を評価するために使用される最先端の手法を評価する。
論文 参考訳(メタデータ) (2023-04-04T08:46:14Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Exploring validation metrics for offline model-based optimisation with
diffusion models [50.404829846182764]
モデルベース最適化(MBO)では、マシンラーニングを使用して、(基底真理)オラクルと呼ばれるブラックボックス関数に対する報酬の尺度を最大化する候補を設計することに興味があります。
モデル検証中に基底オラクルに対する近似をトレーニングし、その代わりに使用することができるが、その評価は近似的であり、敵の例に対して脆弱である。
本手法は,外挿量を測定するために提案した評価フレームワークにカプセル化されている。
論文 参考訳(メタデータ) (2022-11-19T16:57:37Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Privacy-Aware Identity Cloning Detection based on Deep Forest [9.051524543426451]
このアプローチでは、ソーシャルネットワークから収集されたプライバシに敏感なユーザプロファイルデータと強力なディープラーニングモデルを活用して、クローンID検出を行う。
提案手法は,実世界のデータセット上で,最先端の識別クローン検出技術と,他の一般的な識別不正検出モデルに対して評価した。
論文 参考訳(メタデータ) (2021-10-21T04:55:52Z) - No Intruder, no Validity: Evaluation Criteria for Privacy-Preserving
Text Anonymization [0.48733623015338234]
自動テキスト匿名化システムを開発する研究者や実践者は,その評価手法が,個人を再同定から保護するシステムの能力に本当に反映しているかどうかを慎重に評価すべきである。
本稿では,匿名化手法の技術的性能,匿名化による情報損失,不正文書の非匿名化能力を含む評価基準のセットを提案する。
論文 参考訳(メタデータ) (2021-03-16T18:18:29Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。