論文の概要: Large Language Models are Advanced Anonymizers
- arxiv url: http://arxiv.org/abs/2402.13846v2
- Date: Mon, 03 Feb 2025 16:03:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:07:52.067817
- Title: Large Language Models are Advanced Anonymizers
- Title(参考訳): 大規模言語モデルは高度な匿名化器である
- Authors: Robin Staab, Mark Vero, Mislav Balunović, Martin Vechev,
- Abstract要約: 大規模言語モデル(LLM)に関する最近のプライバシー調査では、オンラインテキストから個人データを推測することで、ほぼ人間レベルのパフォーマンスを達成することが示されている。
既存のテキスト匿名化手法は現在、規制要件や敵の脅威に欠けています。
逆LLM推論の面における匿名性を評価するための新しい設定法を提案する。
- 参考スコア(独自算出の注目度): 2.9373912230684565
- License:
- Abstract: Recent privacy research on large language models (LLMs) has shown that they achieve near-human-level performance at inferring personal data from online texts. With ever-increasing model capabilities, existing text anonymization methods are currently lacking behind regulatory requirements and adversarial threats. In this work, we take two steps to bridge this gap: First, we present a new setting for evaluating anonymization in the face of adversarial LLM inferences, allowing for a natural measurement of anonymization performance while remedying some of the shortcomings of previous metrics. Then, within this setting, we develop a novel LLM-based adversarial anonymization framework leveraging the strong inferential capabilities of LLMs to inform our anonymization procedure. We conduct a comprehensive experimental evaluation of adversarial anonymization across 13 LLMs on real-world and synthetic online texts, comparing it against multiple baselines and industry-grade anonymizers. Our evaluation shows that adversarial anonymization outperforms current commercial anonymizers both in terms of the resulting utility and privacy. We support our findings with a human study (n=50) highlighting a strong and consistent human preference for LLM-anonymized texts.
- Abstract(参考訳): 大規模言語モデル(LLM)に関する最近のプライバシー調査では、オンラインテキストから個人データを推測することで、ほぼ人間レベルのパフォーマンスを達成することが示されている。
モデル機能の向上により、既存のテキスト匿名化手法は現在、規制要件や敵の脅威に欠けています。
本稿では,このギャップを埋めるために2つのステップを踏襲する: まず, 逆LLM推論の面における匿名性を評価するための新しい設定を提案する。
そこで我々は,LLMの強い推論能力を活用して,新たなLLMベースの逆匿名化フレームワークを開発した。
実世界および合成オンラインテキスト上で,13 LLMの対向匿名化に関する総合的な実験的評価を行い,複数のベースラインや業界レベルの匿名化システムと比較した。
評価の結果、敵の匿名化は、結果として生じるユーティリティーとプライバシの両方において、現在の商業匿名化よりも優れていることがわかった。
我々は,LSM匿名化テキストに対する強い,一貫した人間の嗜好を強調した人間の研究(n=50)で,本研究を支援した。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Low-Latency Video Anonymization for Crowd Anomaly Detection: Privacy vs. Performance [5.78828936452823]
本研究では,プライバシ保護とリアルタイムビデオ異常検出アプリケーションのための従来の匿名化ソリューションを再検討する。
本稿では,プライバシー保護を強化するために動的調整を施したVAD(LA3D)の軽量適応匿名化を提案する。
実験により, LA3Dは, VADの有効性を著しく低下させることなく, プライバシー匿名化能力を大幅に向上させることができることを示した。
論文 参考訳(メタデータ) (2024-10-24T13:22:33Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Unlocking the Potential of Large Language Models for Clinical Text Anonymization: A Comparative Study [4.1692340552627405]
自動臨床テキスト匿名化は、二次的使用のためにテキスト健康データを広く共有する可能性を秘めている。
文学において多くの複雑で理論的に成功した匿名化解の提案にもかかわらず、これらの手法は依然として欠陥がある。
LLM(Large Language Models)の開発における最近の進歩は、この分野をさらに発展させる有望な機会となる。
論文 参考訳(メタデータ) (2024-05-29T23:07:58Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - The Limits of Word Level Differential Privacy [30.34805746574316]
そこで本稿では, パラフレージング用に微調整されたトランスフォーマーベース言語モデルに基づくテキスト匿名化手法を提案する。
提案手法を徹底的な実験により評価し,提案手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-02T21:53:10Z) - No Intruder, no Validity: Evaluation Criteria for Privacy-Preserving
Text Anonymization [0.48733623015338234]
自動テキスト匿名化システムを開発する研究者や実践者は,その評価手法が,個人を再同定から保護するシステムの能力に本当に反映しているかどうかを慎重に評価すべきである。
本稿では,匿名化手法の技術的性能,匿名化による情報損失,不正文書の非匿名化能力を含む評価基準のセットを提案する。
論文 参考訳(メタデータ) (2021-03-16T18:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。