論文の概要: RobPI: Robust Private Inference against Malicious Client
- arxiv url: http://arxiv.org/abs/2602.19918v1
- Date: Mon, 23 Feb 2026 14:58:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.867914
- Title: RobPI: Robust Private Inference against Malicious Client
- Title(参考訳): RobPI: 悪意のあるクライアントに対するロバストなプライベート推論
- Authors: Jiaqi Xue, Mengxin Zheng, Qian Lou,
- Abstract要約: 悪意のあるクライアントに耐える堅牢でレジリエントなプライベート推論プロトコルであるRobPIを紹介します。
RobPIは、暗号化互換のノイズをログに織り込むことでセキュリティを強化する、独特な暗号化プロトコルを統合している。
実験の結果,RobPIは攻撃成功率を91.9%削減し,悪質なクライアント攻撃で要求されるクエリ数を10倍以上に向上することがわかった。
- 参考スコア(独自算出の注目度): 20.074808898690307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increased deployment of machine learning inference in various applications has sparked privacy concerns. In response, private inference (PI) protocols have been created to allow parties to perform inference without revealing their sensitive data. Despite recent advances in the efficiency of PI, most current methods assume a semi-honest threat model where the data owner is honest and adheres to the protocol. However, in reality, data owners can have different motivations and act in unpredictable ways, making this assumption unrealistic. To demonstrate how a malicious client can compromise the semi-honest model, we first designed an inference manipulation attack against a range of state-of-the-art private inference protocols. This attack allows a malicious client to modify the model output with 3x to 8x fewer queries than current black-box attacks. Motivated by the attacks, we proposed and implemented RobPI, a robust and resilient private inference protocol that withstands malicious clients. RobPI integrates a distinctive cryptographic protocol that bolsters security by weaving encryption-compatible noise into the logits and features of private inference, thereby efficiently warding off malicious-client attacks. Our extensive experiments on various neural networks and datasets show that RobPI achieves ~91.9% attack success rate reduction and increases more than 10x the number of queries required by malicious-client attacks.
- Abstract(参考訳): さまざまなアプリケーションにおける機械学習推論の展開の増加は、プライバシの懸念を引き起こしている。
これに応えて、個人推論(PI)プロトコルが作成され、機密データを明らかにすることなく、関係者が推論を実行できるようになった。
PIの効率の最近の進歩にもかかわらず、現在のほとんどの手法は、データ所有者が正直でプロトコルに準拠した半正直な脅威モデルを想定している。
しかし、実際には、データ所有者は異なるモチベーションを持ち、予測不可能な方法で行動し、この仮定を非現実的なものにすることができる。
悪意のあるクライアントが半正直なモデルにどう影響するかを示すために、我々はまず、最先端のプライベート推論プロトコルに対する推論操作攻撃を設計した。
この攻撃により、悪意のあるクライアントは、現在のブラックボックス攻撃よりも3倍から8倍少ないクエリでモデル出力を変更することができる。
この攻撃に触発され、悪意のあるクライアントに耐える堅牢でレジリエントなプライベート推論プロトコルであるRobPIを提案し、実装した。
RobPIは、暗号化互換のノイズをプライベート推論のログや特徴に織り込むことでセキュリティを強化し、悪意のあるクライアント攻撃を効果的に警告する、独特な暗号化プロトコルを統合している。
さまざまなニューラルネットワークとデータセットに関する広範な実験により、RobPIは攻撃成功率を約91.9%削減し、悪意のあるクライアント攻撃で要求されるクエリ数を10倍以上に向上することが示された。
関連論文リスト
- Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Hiding in Plain Sight: Disguising Data Stealing Attacks in Federated Learning [1.9374282535132377]
悪意のあるサーバ(MS)攻撃のクライアント側検出性を初めて検討した。
これらの要件を満たす新しいアタックフレームワークであるSEERを提案する。
SEERは,最大512のバッチサイズであっても,現実的なネットワークの勾配からユーザデータを盗むことができることを示す。
論文 参考訳(メタデータ) (2023-06-05T16:29:54Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。