論文の概要: RobPI: Robust Private Inference against Malicious Client
- arxiv url: http://arxiv.org/abs/2602.19918v1
- Date: Mon, 23 Feb 2026 14:58:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.867914
- Title: RobPI: Robust Private Inference against Malicious Client
- Title(参考訳): RobPI: 悪意のあるクライアントに対するロバストなプライベート推論
- Authors: Jiaqi Xue, Mengxin Zheng, Qian Lou,
- Abstract要約: 悪意のあるクライアントに耐える堅牢でレジリエントなプライベート推論プロトコルであるRobPIを紹介します。
RobPIは、暗号化互換のノイズをログに織り込むことでセキュリティを強化する、独特な暗号化プロトコルを統合している。
実験の結果,RobPIは攻撃成功率を91.9%削減し,悪質なクライアント攻撃で要求されるクエリ数を10倍以上に向上することがわかった。
- 参考スコア(独自算出の注目度): 20.074808898690307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increased deployment of machine learning inference in various applications has sparked privacy concerns. In response, private inference (PI) protocols have been created to allow parties to perform inference without revealing their sensitive data. Despite recent advances in the efficiency of PI, most current methods assume a semi-honest threat model where the data owner is honest and adheres to the protocol. However, in reality, data owners can have different motivations and act in unpredictable ways, making this assumption unrealistic. To demonstrate how a malicious client can compromise the semi-honest model, we first designed an inference manipulation attack against a range of state-of-the-art private inference protocols. This attack allows a malicious client to modify the model output with 3x to 8x fewer queries than current black-box attacks. Motivated by the attacks, we proposed and implemented RobPI, a robust and resilient private inference protocol that withstands malicious clients. RobPI integrates a distinctive cryptographic protocol that bolsters security by weaving encryption-compatible noise into the logits and features of private inference, thereby efficiently warding off malicious-client attacks. Our extensive experiments on various neural networks and datasets show that RobPI achieves ~91.9% attack success rate reduction and increases more than 10x the number of queries required by malicious-client attacks.
- Abstract(参考訳): さまざまなアプリケーションにおける機械学習推論の展開の増加は、プライバシの懸念を引き起こしている。
これに応えて、個人推論(PI)プロトコルが作成され、機密データを明らかにすることなく、関係者が推論を実行できるようになった。
PIの効率の最近の進歩にもかかわらず、現在のほとんどの手法は、データ所有者が正直でプロトコルに準拠した半正直な脅威モデルを想定している。
しかし、実際には、データ所有者は異なるモチベーションを持ち、予測不可能な方法で行動し、この仮定を非現実的なものにすることができる。
悪意のあるクライアントが半正直なモデルにどう影響するかを示すために、我々はまず、最先端のプライベート推論プロトコルに対する推論操作攻撃を設計した。
この攻撃により、悪意のあるクライアントは、現在のブラックボックス攻撃よりも3倍から8倍少ないクエリでモデル出力を変更することができる。
この攻撃に触発され、悪意のあるクライアントに耐える堅牢でレジリエントなプライベート推論プロトコルであるRobPIを提案し、実装した。
RobPIは、暗号化互換のノイズをプライベート推論のログや特徴に織り込むことでセキュリティを強化し、悪意のあるクライアント攻撃を効果的に警告する、独特な暗号化プロトコルを統合している。
さまざまなニューラルネットワークとデータセットに関する広範な実験により、RobPIは攻撃成功率を約91.9%削減し、悪意のあるクライアント攻撃で要求されるクエリ数を10倍以上に向上することが示された。
関連論文リスト
- Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries [17.780319275883127]
差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-10T20:36:31Z) - SONNI: Secure Oblivious Neural Network Inference [0.29494468099506893]
我々は、このプロトコルの弱点を特定し、完全に検出不可能な新しいモデルステアリング攻撃を可能にする。
この攻撃はマルチキー暗号化の下でも動作し、モデルパラメータを盗むための単純な共謀攻撃を防ぐ。
悪意のあるサーバや悪意のあるクライアント,あるいはモデルプロバイダが存在する場合でも,プライバシを保護する対策を提案する。
論文 参考訳(メタデータ) (2025-04-26T17:23:38Z) - Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
本稿では, プライバシ保護をゲーム理論でモデル化する枠組みを, ディフェンダーとアタッカーのベイズゲームとして提案する。
戦略的複雑さに対処するため、私たちは、プライベートデータセットを公開表現にマッピングするニューラルネットワークジェネレータとして、ディフェンダーの混合戦略を表現します。
当社のアプローチは,より強力な攻撃を発生させ,より優れたプライバシ・ユーティリティ・トレードオフを実現することによって,最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Hiding in Plain Sight: Disguising Data Stealing Attacks in Federated Learning [1.9374282535132377]
悪意のあるサーバ(MS)攻撃のクライアント側検出性を初めて検討した。
これらの要件を満たす新しいアタックフレームワークであるSEERを提案する。
SEERは,最大512のバッチサイズであっても,現実的なネットワークの勾配からユーザデータを盗むことができることを示す。
論文 参考訳(メタデータ) (2023-06-05T16:29:54Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。