論文の概要: Information-theoretically secure equality-testing protocol with dispute
resolution
- arxiv url: http://arxiv.org/abs/2212.13346v1
- Date: Tue, 27 Dec 2022 02:56:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 03:27:06.159208
- Title: Information-theoretically secure equality-testing protocol with dispute
resolution
- Title(参考訳): 紛争解決を伴う情報理論上セキュアな平等テストプロトコル
- Authors: Go Kato, Mikio Fujiwara, and Toyohiro Tsurumaru
- Abstract要約: 我々は「紛争解決を伴う平等テストプロトコル」を新たな枠組みとして定義する。
我々のプロトコルと以前の方法との大きな違いは、信頼できる第三者の介入を許すことです。
この新しいフレームワークでは,情報理論的に安全かつ効率的である明示的なプロトコルも提示する。
- 参考スコア(独自算出の注目度): 6.643082745560235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are often situations where two remote users each have data, and wish to
(i) verify the equality of their data, and (ii) whenever a discrepancy is found
afterwards, determine which of the two modified his data. The most common
example is where they want to authenticate messages they exchange. Another
possible example is where they have a huge database and its mirror in remote
places, and whenever a discrepancy is found between their data, they can
determine which of the two users is to blame. Of course, if one is allowed to
use computational assumptions, this function can be realized readily, e.g., by
using digital signatures. However, if one needs information-theoretic security,
there is no known method that realizes this function efficiently, i.e., with
secret key, communication, and trusted third parties all being sufficiently
small. In order to realize this function efficiently with information-theoretic
security, we here define the ``equality-testing protocol with dispute
resolution'' as a new framework. The most significant difference between our
protocol and the previous methods with similar functions is that we allow the
intervention of a trusted third party when checking the equality of the data.
In this new framework, we also present an explicit protocol that is
information-theoretically secure and efficient.
- Abstract(参考訳): 2人のリモートユーザがそれぞれデータを持っていて、希望する状況がしばしばあります。
(i)データの平等性を検証すること、
(ii)その後、不一致が見つかると、その中のどちらが彼のデータを修正したかを決定する。
最も一般的な例は、交換したメッセージを認証したい場所です。
もうひとつの可能な例は、巨大なデータベースとそのミラーを遠隔地に置くことであり、データの間に不一致が見つかると、その2人のユーザの責任を判断できる。
もちろん、計算的な仮定を使うことが許されている場合、例えばデジタルシグネチャを使用することで、この関数は容易に実現できる。
しかし、情報理論的なセキュリティが必要な場合、秘密鍵、通信、信頼できる第三者など、この機能を効率的に実現するための既知の方法は存在しない。
情報理論のセキュリティでこの機能を効率的に実現するために,我々は,「紛争解決を伴う平等テストプロトコル」を新たなフレームワークとして定義する。
我々のプロトコルと類似した機能を持つ以前のメソッドの最も重要な違いは、データの平等性をチェックする際に信頼できる第三者の介入を可能にすることです。
この新しいフレームワークでは,情報理論上安全かつ効率的である明示的なプロトコルも提示する。
関連論文リスト
- What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Exploit the Leak: Understanding Risks in Biometric Matchers [0.0]
生体認証または識別システムにおいて、マッチング者は、格納されたテンプレートと新しいテンプレートを比較して、マッチがあるかどうかを判断する。
プライバシー法の遵守性を高めるために、マーカはプライバシー保護距離の上に構築することができる。
本稿では,距離評価における情報漏洩の解析を行う。
論文 参考訳(メタデータ) (2023-07-25T17:29:32Z) - Untargeted Near-collision Attacks on Biometrics: Real-world Bounds and
Theoretical Limits [0.0]
オンラインとオフラインの両方、そして識別モードと検証モードの両方で実行できる未ターゲティングな攻撃に焦点を当てます。
我々は、これらのシステムのセキュリティに対処するために、False Match Rate(FMR)とFalse Positive Identification Rate(FPIR)を用いる。
この距離空間とシステムパラメータの研究は、標的外攻撃の複雑さと近接衝突の確率を与える。
論文 参考訳(メタデータ) (2023-04-04T07:17:31Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - DeepSec: Deciding Equivalence Properties for Security Protocols -- Improved theory and practice [8.735998284944436]
我々はこの検証問題の理論と実践に貢献する。
静的同値、トレース同値およびラベル付き二相性のための新しい複雑性結果を確立する。
我々の手順は、多種多様な暗号プリミティブに対して、トレース同値とラベル付き二相性を決定する最初の方法である。
論文 参考訳(メタデータ) (2022-11-06T22:01:04Z) - Mitigating Leakage in Federated Learning with Trusted Hardware [0.0]
連合学習では、複数のパーティが協力して、それぞれのデータセット上でグローバルモデルをトレーニングします。
不正に行われた場合、一部の情報はまだ関係者間でリークされる可能性がある。
信頼性の高い実行環境に依存した2つのセキュアバージョンを提案する。
論文 参考訳(メタデータ) (2020-11-10T07:22:51Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - An Accurate, Scalable and Verifiable Protocol for Federated
Differentially Private Averaging [0.0]
我々は、参加者に提供されるプライバシー保証と、悪意ある当事者の存在下での計算の正しさに関する課題に取り組む。
最初のコントリビューションはスケーラブルなプロトコルで、参加者はネットワークグラフのエッジに沿って関連するガウスノイズを交換する。
第2のコントリビューションでは,プロトコルの効率性とプライバシ保証を損なうことなく,計算の正確性を証明することができる。
論文 参考訳(メタデータ) (2020-06-12T14:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。