論文の概要: Adversary for Social Good: Leveraging Adversarial Attacks to Protect
Personal Attribute Privacy
- arxiv url: http://arxiv.org/abs/2306.02488v1
- Date: Sun, 4 Jun 2023 21:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:37:13.401076
- Title: Adversary for Social Good: Leveraging Adversarial Attacks to Protect
Personal Attribute Privacy
- Title(参考訳): 社会的善の擁護 - 個人属性プライバシ保護のための敵攻撃の活用
- Authors: Xiaoting Li, Lingwei Chen, Dinghao Wu
- Abstract要約: 我々は、機械学習の固有の脆弱性を敵攻撃に利用し、Adv4SGと呼ばれるソーシャルグッドのための新しいテキストスペース・アタックを設計する。
提案手法は,異なる属性設定に対して計算コストの少ない推論精度を効果的に劣化させ,推論攻撃の影響を軽減し,ユーザ属性のプライバシ保護において高い性能を実現する。
- 参考スコア(独自算出の注目度): 14.395031313422214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media has drastically reshaped the world that allows billions of
people to engage in such interactive environments to conveniently create and
share content with the public. Among them, text data (e.g., tweets, blogs)
maintains the basic yet important social activities and generates a rich source
of user-oriented information. While those explicit sensitive user data like
credentials has been significantly protected by all means, personal private
attribute (e.g., age, gender, location) disclosure due to inference attacks is
somehow challenging to avoid, especially when powerful natural language
processing (NLP) techniques have been effectively deployed to automate
attribute inferences from implicit text data. This puts users' attribute
privacy at risk. To address this challenge, in this paper, we leverage the
inherent vulnerability of machine learning to adversarial attacks, and design a
novel text-space Adversarial attack for Social Good, called Adv4SG. In other
words, we cast the problem of protecting personal attribute privacy as an
adversarial attack formulation problem over the social media text data to
defend against NLP-based attribute inference attacks. More specifically, Adv4SG
proceeds with a sequence of word perturbations under given constraints such
that the probed attribute cannot be identified correctly. Different from the
prior works, we advance Adv4SG by considering social media property, and
introducing cost-effective mechanisms to expedite attribute obfuscation over
text data under the black-box setting. Extensive experiments on real-world
social media datasets have demonstrated that our method can effectively degrade
the inference accuracy with less computational cost over different attribute
settings, which substantially helps mitigate the impacts of inference attacks
and thus achieve high performance in user attribute privacy protection.
- Abstract(参考訳): ソーシャルメディアは、何十億という人々がこうしたインタラクティブな環境に関わり、コンテンツの制作と共有を便利に行える世界を大きく変えた。
その中でも、テキストデータ(例えば、つぶやき、ブログなど)は基本的な重要な社会活動を維持し、ユーザー指向情報の豊富な情報源を生成する。
認証情報のような明示的なユーザデータは、あらゆる方法で著しく保護されているが、推論攻撃による個人属性(例えば、年齢、性別、位置)の開示は、特に強力な自然言語処理(NLP)技術が、暗黙のテキストデータからの属性推論を自動化するために効果的にデプロイされている場合、何らかの回避が困難である。
これはユーザーの属性のプライバシーを危険にさらす。
この課題に対処するため,本論文では,機械学習の固有の脆弱性を敵意攻撃に活用し,adv4sgと呼ばれる,新たなテキスト空間敵意攻撃をデザインする。
言い換えれば、NLPベースの属性推論攻撃に対して、ソーシャルメディアのテキストデータに対して、個人属性のプライバシを敵攻撃の定式化問題として保護するという問題を提起した。
より具体的には、Adv4SGは与えられた制約の下で単語摂動の連続を進行し、探索された属性を正しく識別できない。
従来と異なり,ソーシャルメディアの特質を考慮したAdv4SGを推進し,ブラックボックス設定下でのテキストデータに対する属性難読化を高速化する費用対効果機構を導入する。
実世界のソーシャルメディアデータセットに関する広範囲な実験により,提案手法は,異なる属性設定よりも少ない計算コストで推論精度を効果的に低下させることが証明された。
関連論文リスト
- IncogniText: Privacy-enhancing Conditional Text Anonymization via LLM-based Private Attribute Randomization [8.483679748399037]
IncogniTextは,テキストを匿名化して潜在的敵を誤認し,誤った属性値を予測する手法である。
実証評価の結果,私的属性の漏洩が90%以上減少した。
論文 参考訳(メタデータ) (2024-07-03T09:49:03Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [55.20137833039499]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Air Gap: Protecting Privacy-Conscious Conversational Agents [44.04662124191715]
敵のサードパーティアプリがインタラクションのコンテキストを操作して,LDMベースのエージェントを騙して,そのタスクに関係のない個人情報を明らかにする,新たな脅威モデルを導入する。
本研究では,特定のタスクに必要なデータのみへのアクセスを制限することで,意図しないデータ漏洩を防止するために設計されたプライバシ意識エージェントであるAirGapAgentを紹介する。
論文 参考訳(メタデータ) (2024-05-08T16:12:45Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - SoK: Reducing the Vulnerability of Fine-tuned Language Models to
Membership Inference Attacks [1.03590082373586]
我々は,大規模言語モデルのメンバシップ推論攻撃に対する脆弱性について,初めて体系的なレビューを行った。
これらの攻撃に対して最高のプライバシー保護を実現するために、差分プライバシーと低ランク適応器を組み合わせることで、いくつかのトレーニング手法がプライバシーリスクを著しく低減することを発見した。
論文 参考訳(メタデータ) (2024-03-13T12:46:51Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Human intuition as a defense against attribute inference [4.916067949075847]
属性推論は、プライバシーに対する大きな脅威となっている。
この脅威に対処する1つの方法は、属性推論からプライベート情報を隠蔽するために、公開データを戦略的に修正することである。
我々は、このタスクを実行する人々の能力を評価し、この目的のために設計されたアルゴリズムと比較する。
論文 参考訳(メタデータ) (2023-04-24T06:54:17Z) - User-Centered Security in Natural Language Processing [0.7106986689736825]
自然言語処理(NLP)におけるユーザ中心のセキュリティの枠組みの提案
NLP内の2つのセキュリティドメインに重点を置いている。
論文 参考訳(メタデータ) (2023-01-10T22:34:19Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。