論文の概要: Privacy-Preserving Inconsistency Measurement
- arxiv url: http://arxiv.org/abs/2505.23825v1
- Date: Wed, 28 May 2025 06:24:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.54216
- Title: Privacy-Preserving Inconsistency Measurement
- Title(参考訳): プライバシー保護不整合測定
- Authors: Carl Corea, Timotheus Kampik, Nico Potyka,
- Abstract要約: マルチパーティ通信における不整合測定の新たな形態について検討する。
その結果,知識ベースの内容を明らかにすることなく,K_A U K_Bの不整合度を定量的に評価できることがわかった。
- 参考スコア(独自算出の注目度): 4.861125297881692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate a new form of (privacy-preserving) inconsistency measurement for multi-party communication. Intuitively, for two knowledge bases K_A, K_B (of two agents A, B), our results allow to quantitatively assess the degree of inconsistency for K_A U K_B without having to reveal the actual contents of the knowledge bases. Using secure multi-party computation (SMPC) and cryptographic protocols, we develop two concrete methods for this use-case and show that they satisfy important properties of SMPC protocols -- notably, input privacy, i.e., jointly computing the inconsistency degree without revealing the inputs.
- Abstract(参考訳): マルチパーティ通信のための新しい形態(プライバシ保存)の不整合測定について検討する。
直感的には、2つの知識ベースK_A,K_B(2つのエージェントA,B)に対して、この結果は、知識ベースの実内容を明らかにすることなく、K_AUK_Bの不整合度を定量的に評価することができる。
セキュアなマルチパーティ計算(SMPC)と暗号プロトコルを用いて、このユースケースのための2つの具体的な方法を開発し、SMPCプロトコルの重要な特性を満たすことを示す。
関連論文リスト
- Differential Confounding Privacy and Inverse Composition [32.85314813605347]
本稿では,Pufferfishプライバシーフレームワークの特殊な形式であるtextitdifferential confounding Privacy (DCP)を紹介する。
DCP機構は, 構成上のプライバシー保証を保っているが, DPの優雅な構成特性は欠如していることが示されている。
我々は、リーダ・フォロワーモデルがターゲット保証を達成するためのプライバシ戦略を最適に設計する、textitInverse Composition (IC)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - ppAURORA: Privacy Preserving Area Under Receiver Operating
Characteristic and Precision-Recall Curves [1.933681537640272]
AUCは、異なる機械学習モデルの品質を比較するためのパフォーマンス指標である。
ラベルにはプライバシーに敏感な情報も含まれているため、グローバルAUCを計算することも問題になる可能性がある。
我々は、複数のソースから個別にソートされたリストをプライベートにマージし、正確なAUCを計算するMPCベースのソリューションpAURORAを提案する。
論文 参考訳(メタデータ) (2021-02-17T14:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。