論文の概要: Earn While You Reveal: Private Set Intersection that Rewards Participants
- arxiv url: http://arxiv.org/abs/2301.03889v3
- Date: Fri, 26 Apr 2024 09:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 18:37:21.911575
- Title: Earn While You Reveal: Private Set Intersection that Rewards Participants
- Title(参考訳): プライベート・セット・インターセクションで参加者を振り返る(動画あり)
- Authors: Aydin Abadi,
- Abstract要約: プライベート・セット・インターセクション・プロトコル(PSI)では、空でない結果は常に当事者のプライベート・インプット・セットについて何かを明らかにする。
我々は、プロトコルにプライベートな入力セットをコントリビュートする参加者に報酬を与えるマルチパーティPSI「Anesidora」を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Private Set Intersection protocols (PSIs), a non-empty result always reveals something about the private input sets of the parties. Moreover, in various variants of PSI, not all parties necessarily receive or are interested in the result. Nevertheless, to date, the literature has assumed that those parties who do not receive or are not interested in the result still contribute their private input sets to the PSI for free, although doing so would cost them their privacy. In this work, for the first time, we propose a multi-party PSI, called "Anesidora", that rewards parties who contribute their private input sets to the protocol. Anesidora is efficient; it mainly relies on symmetric key primitives and its computation and communication complexities are linear with the number of parties and set cardinality. It remains secure even if the majority of parties are corrupted by active colluding adversaries.
- Abstract(参考訳): プライベート・セット・インターセクション・プロトコル(PSI)では、空でない結果は常に当事者のプライベート・インプット・セットについて何かを明らかにする。
さらに、PSIの様々な変種において、すべての当事者が必ずしも結果を受け入れたり、興味を持ったりするわけではない。
それにもかかわらず、これまでの文献では、結果を受け取らなかったり、興味を持っていない当事者は、プライベートな入力セットをPSIに無償で提供しているが、プライバシーを犠牲にしていると推測されている。
本研究では,プロトコルにプライベートな入力セットをコントリビュートする参加者に報酬を与えるマルチパーティPSIである"Anesidora"を提案する。
アニシドーラは効率的であり、主に対称鍵プリミティブに依存し、その計算と通信の複雑さはパーティーの数と集合基数に線形である。
政党の大多数が活発に衝突する敵によって腐敗しても、安全は保たれる。
関連論文リスト
- Differential Privacy on Trust Graphs [54.55190841518906]
差分プライバシー(DP)は、各当事者がそのデータで他の当事者の(既知の)サブセットのみを信頼するマルチパーティ環境で研究する。
我々は、DPのローカルモデルよりもはるかに優れたプライバシーとユーティリティのトレードオフを持つ集約のためのDPアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-10-15T20:31:04Z) - Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Private Membership Aggregation [32.97918488607827]
個人会員集約(PMA)の問題を考える。
PMAでは、ある要素が独立系のシステムに格納されている回数をユーザがカウントする。
そこで我々は,部分空間間のアライメントの概念に基づいて,問題の4つの変種それぞれに対する達成可能なスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T17:33:27Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Two-party secure semiquantum summation against the collective-dephasing
noise [3.312385039704987]
semi-honest」という言葉は、TPが他と共謀することができないが、あらゆる種類のoof攻撃を実装することができることを意味する。
このプロトコルは、移動粒子として論理量子ビットを用いて、集団劣化ノイズの負の影響を克服する。
セキュリティ分析の結果、このプロトコルは、Eveからの外部攻撃とTPからの参加者攻撃を効果的に防止できることがわかった。
論文 参考訳(メタデータ) (2022-05-15T01:10:20Z) - Multi-party quantum private comparison of size relation with d-level
single-particle states [0.0]
サイズ関係比較のための新しい2つの量子プライベート比較プロトコルを構築した。
各プロトコルは、1回の実行で同等ではなく、n個のパーティから秘密整数のサイズ関係を比較することができる。
論文 参考訳(メタデータ) (2022-05-13T00:34:52Z) - Multi-party Quantum Private Comparison Based on the Entanglement
Swapping of d-level Cat States and d-level Bell states [0.0]
当社のプロトコルでは,nのパーティはプライベートシークレットをエンコードするためにユニタリ操作を採用し,プロトコルの実行1時間以内にプライベートシークレットの等価性を比較できる。
当事者は、その秘密が同一である場合を除き、他の当事者の秘密を入手することはできない。
半正直なTPは、N党のすべての秘密が等しいかどうかの最終的な比較結果以外は、これらの当事者の秘密については何も学べない。
論文 参考訳(メタデータ) (2022-05-10T02:14:18Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging [0.0]
我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
論文 参考訳(メタデータ) (2020-06-12T14:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。