論文の概要: Digital Privacy Under Attack: Challenges and Enablers
- arxiv url: http://arxiv.org/abs/2302.09258v3
- Date: Mon, 29 Sep 2025 09:23:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.593901
- Title: Digital Privacy Under Attack: Challenges and Enablers
- Title(参考訳): デジタルプライバシーを脅かす: チャレンジとイネーブラー
- Authors: Baobao Song, Shiva Raj Pokhrel, Mengyue Deng, Qiujun Lan, Robin Doss, Gang Li,
- Abstract要約: 我々は、匿名データ、統計集計、プライバシー保護モデルという3つのドメインをターゲットにした攻撃を体系的に分類する。
各カテゴリにおいて、攻撃方法、敵の能力、脆弱性メカニズムを解析する。
我々の分析によると、差分プライバシーは強力な理論的保証を提供するが、新たな攻撃に対する実装上の課題と潜在的な脆弱性に直面している。
- 参考スコア(独自算出の注目度): 11.061112334099597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a comprehensive analysis of privacy attacks and countermeasures in data-driven systems. We systematically categorize attacks targeting three domains: anonymous data (linkage and structural attacks), statistical aggregates (reconstruction and differential attacks), and privacy-preserving models (extraction, reconstruction, membership inference, and inversion attacks). For each category, we analyze attack methodologies, adversary capabilities, and vulnerability mechanisms. We further evaluate countermeasures including perturbation techniques, randomization methods, query auditing, and model-level defenses, examining their effectiveness and inherent privacy-utility tradeoffs. Our analysis reveals that while differential privacy offers strong theoretical guarantees, it faces implementation challenges and potential vulnerabilities to emerging attacks. We identify critical research directions and provide researchers and practitioners with a structured framework for understanding privacy resilience in increasingly complex data ecosystems.
- Abstract(参考訳): データ駆動システムにおけるプライバシ攻撃と対策の包括的分析を行う。
匿名データ(リンクと構造的攻撃)、統計集約(再構成と差分攻撃)、プライバシー保護モデル(抽出、再構築、メンバーシップ推論、反転攻撃)の3つのドメインを対象とした攻撃を体系的に分類する。
各カテゴリにおいて、攻撃方法、敵の能力、脆弱性メカニズムを解析する。
さらに,摂動手法,ランダム化手法,クエリ監査,モデルレベルディフェンスなどの対策を検証し,その有効性と固有のプライバシ・ユーティリティ・トレードオフについて検討する。
我々の分析によると、差分プライバシーは強力な理論的保証を提供するが、新たな攻撃に対する実装上の課題と潜在的な脆弱性に直面している。
我々は、重要研究の方向性を特定し、ますます複雑なデータエコシステムにおけるプライバシーのレジリエンスを理解するための構造化されたフレームワークを研究者や実践者に提供します。
関連論文リスト
- Benchmarking Knowledge-Extraction Attack and Defense on Retrieval-Augmented Generation [50.87199039334856]
Retrieval-Augmented Generation (RAG) は知識集約型アプリケーションの基礎となっている。
近年の研究では、悪意あるクエリによって知識抽出攻撃が機密知識ベースコンテンツを回復できることが示されている。
本稿では,RAGシステムに対する知識抽出攻撃のための最初の体系的ベンチマークを紹介する。
論文 参考訳(メタデータ) (2026-02-10T01:27:46Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - On the Security and Privacy of Federated Learning: A Survey with Attacks, Defenses, Frameworks, Applications, and Future Directions [1.7056096558557128]
Federated Learning(FL)は、クライアントが生データを共有せずにグローバルモデルを協調的にトレーニングできる、新興の分散機械学習パラダイムである。
FLはデータプライバシを設計によって強化するが、さまざまなセキュリティやプライバシの脅威に対して脆弱である。
セキュリティ強化手法は、ビザンチン攻撃、中毒、シビル攻撃などの悪意ある行動に対してFLの堅牢性を改善することを目的としている。
プライバシー保護技術は、暗号化アプローチ、差分プライバシー、セキュアアグリゲーションを通じて機密データを保護することに重点を置いている。
論文 参考訳(メタデータ) (2025-08-19T11:06:20Z) - Beyond Vulnerabilities: A Survey of Adversarial Attacks as Both Threats and Defenses in Computer Vision Systems [5.787505062263962]
コンピュータビジョンシステムに対する敵対的攻撃は、ニューラルネットワークの堅牢性とセキュリティに関する基本的な前提に挑戦する重要な研究領域として浮上している。
この包括的調査は、敵のテクニックの進化の状況を調べ、その2つの性質を高度なセキュリティ脅威と貴重な防御ツールの両方として明らかにしている。
論文 参考訳(メタデータ) (2025-08-03T17:02:05Z) - DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [70.77570343385928]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Footprints of Data in a Classifier: Understanding the Privacy Risks and Solution Strategies [0.9208007322096533]
一般データ保護規則(Right Erasure)第17条は、潜在的な妥協を防ぐために、システムから永久にデータを除去することを要求する。
そのような問題の1つは、予測モデルに埋め込まれたトレーニングデータの残余のフットプリントから生じる。
本研究は,分類器システムの2つの基本的な側面 – 訓練品質と分類器訓練方法 – が,プライバシの脆弱性にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2024-07-02T13:56:37Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。