論文の概要: Robustness of Locally Differentially Private Graph Analysis Against Poisoning
- arxiv url: http://arxiv.org/abs/2210.14376v2
- Date: Wed, 10 Sep 2025 09:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 19:29:00.98047
- Title: Robustness of Locally Differentially Private Graph Analysis Against Poisoning
- Title(参考訳): 局所的に異なる私的グラフ解析の中毒に対するロバスト性
- Authors: Jacob Imola, Amrita Roy Chowdhury, Kamalika Chaudhuri,
- Abstract要約: 局所微分プライベート(LDP)グラフ解析は、複数のユーザに分散したグラフ上のプライベート分析を可能にする。
LDP下のグラフ度推定プロトコルにおける毒素攻撃の影響について検討する。
我々は、データ中毒の影響を著しく低減し、高精度な計算次数推定を行うLDPの下で、ロバスト度推定プロトコルを設計する。
- 参考スコア(独自算出の注目度): 34.86995628705397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Locally differentially private (LDP) graph analysis allows private analysis on a graph that is distributed across multiple users. However, such computations are vulnerable to data poisoning attacks where an adversary can skew the results by submitting malformed data. In this paper, we formally study the impact of poisoning attacks for graph degree estimation protocols under LDP. We make two key technical contributions. First, we observe LDP makes a protocol more vulnerable to poisoning -- the impact of poisoning is worse when the adversary can directly poison their (noisy) responses, rather than their input data. Second, we observe that graph data is naturally redundant -- every edge is shared between two users. Leveraging this data redundancy, we design robust degree estimation protocols under LDP that can significantly reduce the impact of data poisoning and compute degree estimates with high accuracy. We evaluate our proposed robust degree estimation protocols under poisoning attacks on real-world datasets to demonstrate their efficacy in practice.
- Abstract(参考訳): 局所微分プライベート(LDP)グラフ解析は、複数のユーザに分散したグラフ上のプライベート分析を可能にする。
しかし、このような計算は、相手が不正なデータを送信して結果を歪めてしまうようなデータ中毒攻撃に対して脆弱である。
本稿では, LDP のグラフ度推定プロトコルにおける毒素攻撃の影響について, 正式に検討する。
技術的な貢献は2つあります。
まず、LDPが毒に弱いプロトコルを作らせるのを観察します -- 敵が入力データではなく直接(騒がしい)応答を中毒できる場合、毒による影響は悪化します。次に、グラフデータは自然に冗長であり、すべてのエッジが2人のユーザー間で共有されているのを観察します。
このデータ冗長性を生かして、データ中毒の影響を大幅に低減し、高精度な計算次数推定を行うLDPの下で、ロバスト度推定プロトコルを設計する。
実世界のデータセットに対する有害な攻撃によるロバスト度推定プロトコルの評価を行い,実効性を実証した。
関連論文リスト
- Poisoning Attacks to Local Differential Privacy Protocols for Trajectory Data [14.934626547047763]
地理的な位置からの動きを追跡するトラジェクトリデータは、現実世界のアプリケーションを改善するために不可欠である。
ローカルディファレンシャルプライバシ(LDP)は、個人が自分の軌跡データを共有する前に局所的に摂動できるようにするソリューションを提供する。
プライバシー上の利点にもかかわらず、LDPプロトコルはデータ中毒攻撃に対して脆弱であり、攻撃者は偽のデータを注入して集約された結果を操作する。
論文 参考訳(メタデータ) (2025-03-06T02:31:45Z) - Data Poisoning Attacks to Locally Differentially Private Range Query Protocols [15.664794320925562]
ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
近年の研究では、LDPプロトコルがデータ中毒攻撃に弱いことが判明している。
本稿では LDP 範囲のクエリプロトコルをターゲットとしたデータ中毒攻撃に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2025-03-05T12:40:34Z) - Data Poisoning Attacks to Local Differential Privacy Protocols for Graphs [12.565077847109974]
本稿では,攻撃者がグラフのローカル差分プライバシープロトコルに偽ユーザを注入し,データ中毒攻撃を設計することにより,グラフメトリクスの品質を低下させることができることを示す。
概念実証として,2つの古典グラフ指標,次数集中度とクラスタリング係数に対するデータ中毒攻撃に着目した。
実世界のデータセットに関する実験的研究は、我々の攻撃が収集したグラフメトリクスデータセットの品質を大幅に低下させることができることを示した。
論文 参考訳(メタデータ) (2024-12-23T11:16:23Z) - PoisonCatcher: Revealing and Identifying LDP Poisoning Attacks in IIoT [13.68394346583211]
ローカル微分プライバシー(LDP)は、軽量で分散化されスケーラブルであるため、産業用IoT(Industrial Internet of Things)で広く採用されている。
本研究は,資源豊富なアグリゲータにおけるIIoTに対するLDP中毒防御法を提案する。
論文 参考訳(メタデータ) (2024-12-20T09:26:50Z) - Data Poisoning Attacks to Locally Differentially Private Frequent Itemset Mining Protocols [13.31395140464466]
ローカルディファレンシャルプライバシ(LDP)は、信頼できないデータコレクタが、プライバシに違反することなく、ユーザのデータを集約する方法を提供する。
周波数推定、頻繁なアイテムセットマイニング、機械学習など、LDPの保護の下で、さまざまなプライバシー保護データ分析タスクが研究されている。
最近の研究は、データ中毒攻撃に対する特定のLDPプロトコルの脆弱性を実証している。
論文 参考訳(メタデータ) (2024-06-27T18:11:19Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Temporal Robustness against Data Poisoning [69.01705108817785]
データ中毒は、悪意のあるトレーニングデータを通じて、敵対者が機械学習アルゴリズムの振る舞いを操作する場合を考慮している。
本研究では,攻撃開始時間と攻撃持続時間を測定する2つの新しい指標である耳線と持続時間を用いたデータ中毒の時間的脅威モデルを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:59:19Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。