論文の概要: Privacy-Preserving Inconsistency Measurement
- arxiv url: http://arxiv.org/abs/2505.23825v1
- Date: Wed, 28 May 2025 06:24:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.54216
- Title: Privacy-Preserving Inconsistency Measurement
- Title(参考訳): プライバシー保護不整合測定
- Authors: Carl Corea, Timotheus Kampik, Nico Potyka,
- Abstract要約: マルチパーティ通信における不整合測定の新たな形態について検討する。
その結果,知識ベースの内容を明らかにすることなく,K_A U K_Bの不整合度を定量的に評価できることがわかった。
- 参考スコア(独自算出の注目度): 4.861125297881692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate a new form of (privacy-preserving) inconsistency measurement for multi-party communication. Intuitively, for two knowledge bases K_A, K_B (of two agents A, B), our results allow to quantitatively assess the degree of inconsistency for K_A U K_B without having to reveal the actual contents of the knowledge bases. Using secure multi-party computation (SMPC) and cryptographic protocols, we develop two concrete methods for this use-case and show that they satisfy important properties of SMPC protocols -- notably, input privacy, i.e., jointly computing the inconsistency degree without revealing the inputs.
- Abstract(参考訳): マルチパーティ通信のための新しい形態(プライバシ保存)の不整合測定について検討する。
直感的には、2つの知識ベースK_A,K_B(2つのエージェントA,B)に対して、この結果は、知識ベースの実内容を明らかにすることなく、K_AUK_Bの不整合度を定量的に評価することができる。
セキュアなマルチパーティ計算(SMPC)と暗号プロトコルを用いて、このユースケースのための2つの具体的な方法を開発し、SMPCプロトコルの重要な特性を満たすことを示す。
関連論文リスト
- Detect \& Score: Privacy-Preserving Misbehaviour Detection and Contribution Evaluation in Federated Learning [57.35282510032077]
セキュアアグリゲーションによるフェデレーション学習は、機密性の高いクライアント情報を漏洩することなく、分散データからプライベートおよびコラボレーティブな学習を可能にする。
コントリビューション評価(CE)と誤行動検出(MD)には,それぞれQIとFedGTが提案された。
我々はQIとFedGTの強みを組み合わせ、ロバストMDと正確なCEを両立させる。
論文 参考訳(メタデータ) (2025-06-30T07:40:18Z) - Commitment Schemes for Multi-Party Computation [0.0]
本稿では,マルチパーティ計算(MPC)プロトコルで使用されるコミットスキーム(CS)の分析を行う。
本研究は,MPCの対角的,機能的要件を満たすためにCSを慎重に選択することの重要性を強調した。
論文 参考訳(メタデータ) (2025-06-12T14:11:59Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [33.267664801299354]
フェデレートラーニング(FL)による分散プライベートデータに基づく機械学習モデルのトレーニングは、コミュニケーション効率とプライバシ保護という2つの大きな課題を提起する。
本稿では,CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しい手法を導入し,両目的を同時に達成する。
ユーザプライバシ,グローバルユーティリティ,CEPAMの送信速度のトレードオフを,差分プライバシーと圧縮によるFLの適切なメトリクスを定義することによって分析する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - Differential Confounding Privacy and Inverse Composition [32.85314813605347]
本稿では,Pufferfishプライバシーフレームワークの特殊な形式であるtextitdifferential confounding Privacy (DCP)を紹介する。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如していることが示されている。
我々は、リーダ・フォロワーモデルがターゲット保証を達成するためのプライバシ戦略を最適に設計する、textitInverse Composition (IC)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Robust and efficient verification of graph states in blind
measurement-based quantum computation [52.70359447203418]
Blind Quantum Computing (BQC) は、クライアントのプライバシを保護するセキュアな量子計算手法である。
資源グラフ状態が敵のシナリオで正確に準備されているかどうかを検証することは重要である。
本稿では,任意の局所次元を持つ任意のグラフ状態を検証するための,堅牢で効率的なプロトコルを提案する。
論文 参考訳(メタデータ) (2023-05-18T06:24:45Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Uncertainty Quantification of Collaborative Detection for Self-Driving [12.590332512097698]
連結車両と自律車両(CAV)間の情報共有は、自動運転のための協調物体検出の性能を向上させる。
しかし、CAVは実用上の課題のため、まだ物体検出に不確実性を持っている。
我々の研究は、協調物体検出の不確かさを最初に見積もるものである。
論文 参考訳(メタデータ) (2022-09-16T20:30:45Z) - ppAURORA: Privacy Preserving Area Under Receiver Operating
Characteristic and Precision-Recall Curves [1.933681537640272]
AUCは、異なる機械学習モデルの品質を比較するためのパフォーマンス指標である。
ラベルにはプライバシーに敏感な情報も含まれているため、グローバルAUCを計算することも問題になる可能性がある。
我々は、複数のソースから個別にソートされたリストをプライベートにマージし、正確なAUCを計算するMPCベースのソリューションpAURORAを提案する。
論文 参考訳(メタデータ) (2021-02-17T14:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。