論文の概要: Human-Centered Interactive Anonymization for Privacy-Preserving Machine Learning: A Case for Human-Guided k-Anonymity
- arxiv url: http://arxiv.org/abs/2507.04104v1
- Date: Sat, 05 Jul 2025 17:20:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.015682
- Title: Human-Centered Interactive Anonymization for Privacy-Preserving Machine Learning: A Case for Human-Guided k-Anonymity
- Title(参考訳): プライバシ保護機械学習のための人間中心型対話型匿名化:人間誘導型k匿名を事例として
- Authors: Sri Harsha Gajavalli,
- Abstract要約: 我々は、k-匿名化プロセスに人間の入力を組み込むインタラクティブなアプローチを提案する。
UCIアダルトデータセットを用いて、対話型人間影響匿名化の分類結果と従来の完全自動化手法との比較を行った。
この結果から,タスクや設定によって異なるが,人間の入力によってデータの有用性が向上する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy-preserving machine learning (ML) seeks to balance data utility and privacy, especially as regulations like the GDPR mandate the anonymization of personal data for ML applications. Conventional anonymization approaches often reduce data utility due to indiscriminate generalization or suppression of data attributes. In this study, we propose an interactive approach that incorporates human input into the k-anonymization process, enabling domain experts to guide attribute preservation based on contextual importance. Using the UCI Adult dataset, we compare classification outcomes of interactive human-influenced anonymization with traditional, fully automated methods. Our results show that human input can enhance data utility in some cases, although results vary across tasks and settings. We discuss limitations of our approach and suggest potential areas for improved interactive frameworks in privacy-aware ML.
- Abstract(参考訳): プライバシ保存機械学習(ML)は、データユーティリティとプライバシのバランスを目指している。特にGDPRのような規制では、MLアプリケーションの個人情報の匿名化を義務付けている。
従来の匿名化アプローチでは、データ属性の非差別的な一般化や抑制によって、データの有用性が低下することが多い。
本研究では,k-匿名化プロセスに人間の入力を組み込んだ対話型アプローチを提案する。
UCIアダルトデータセットを用いて、対話型人間影響匿名化の分類結果と従来の完全自動化手法との比較を行った。
結果から,タスクや設定によって異なるが,人間の入力によってデータの有用性が向上することが示唆された。
本稿では,我々のアプローチの限界について議論し,プライバシを意識したMLにおける対話型フレームワークの改善の可能性を提案する。
関連論文リスト
- PASS: Private Attributes Protection with Stochastic Data Substitution [46.38957234350463]
下流タスクのためのデータユーティリティを維持しながら、データからデータを取り除き、プライベート属性を保護するための様々な研究が提案されている。
PASSは、新しい損失関数で訓練された特定の確率に応じて、元のサンプルを別のサンプルに置換するように設計されている。
顔画像、人間の活動感覚信号、音声記録データセットなど、さまざまなモダリティのデータセットに対するPASSの包括的評価は、PASSの有効性と一般化性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-08T22:48:07Z) - Self-Refining Language Model Anonymizers via Adversarial Distillation [49.17383264812234]
大きな言語モデル(LLM)は、個人情報を推測する能力がプライバシーのリスクを生じさせるセンシティブなドメインで、ますます使われています。
本稿では,SLM(Small Language Model)を訓練し,効率的な匿名化を実現するための新しい蒸留フレームワークであるSEAL(Self-refining Anonymization with Language Model)を紹介する。
論文 参考訳(メタデータ) (2025-06-02T08:21:27Z) - Privacy Preserving Machine Learning Model Personalization through Federated Personalized Learning [0.0]
データプライバシを維持しながら、分散データサイロ上で機械学習(ML)モデルをトレーニングするための主要なパラダイムであるフェデレートラーニング(FL)への関心が揺れている。
本研究では,プライバシ保護機械学習によって達成されたプライバシを保護しながら,MLモデルをパーソナライズするための最先端アプローチの総合的なパフォーマンス解析を行う。
我々の分析によると、適応的パーソナライズ・クロスサイロ・フェデレーション・ラーニング・アダプティブプライバシ(APPLE+DP)は効率的な実行を提供するのに対し、アダプティブ・パーソナライズ・クロスサイロ・フェデレーション・ラーニング・アダプティブ・エン暗号化(APPLE+HE)アルゴリズムは、プライバシ保存機械学習タスクに強く利用されている。
論文 参考訳(メタデータ) (2025-05-03T11:31:38Z) - Evaluating Differentially Private Synthetic Data Generation in High-Stakes Domains [9.123834467375532]
実データの代わりに、微分プライベート言語モデルから生成された合成データを用いて、高速領域におけるNLPの開発を容易にする可能性について検討する。
以上の結果から,従来の簡易評価では,合成データの有用性,プライバシ,公平性を強調できなかったことが示唆された。
論文 参考訳(メタデータ) (2024-10-10T19:31:02Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Cloaked Classifiers: Pseudonymization Strategies on Sensitive Classification Tasks [4.66054169739129]
本稿では,データ保護と堅牢なプライバシ保護のバランスについて検討する。
我々は,多言語急進化データセットを手動で偽名化する手法を共有し,元のデータに匹敵する性能を確保する。
論文 参考訳(メタデータ) (2024-06-25T18:30:25Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy Risks in Reinforcement Learning for Household Robots [42.675213619562975]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では,値に基づくアルゴリズムと勾配に基づくアルゴリズムのトレーニングプロセスに対する攻撃を提案し,状態,行動,監督信号の再構成に勾配インバージョンを利用する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。