論文の概要: Swiper: a new paradigm for efficient weighted distributed protocols
- arxiv url: http://arxiv.org/abs/2307.15561v2
- Date: Mon, 04 Nov 2024 15:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:25:33.378052
- Title: Swiper: a new paradigm for efficient weighted distributed protocols
- Title(参考訳): Swiper: 効率的な重み付き分散プロトコルのための新しいパラダイム
- Authors: Andrei Tonkikh, Luciano Freitas,
- Abstract要約: フォールトトレラントな分散アルゴリズムは、名目上の汚職モデルとして設計されている。
名目モデルのために設計されたプロトコルのクラスを重み付きモデルに変換する方法を示す。
注目すべき例としては、消去符号化された分散ストレージとブロードキャストプロトコル、検証可能な秘密共有、非同期コンセンサスなどがある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The majority of fault-tolerant distributed algorithms are designed assuming a nominal corruption model, in which at most a fraction $f_n$ of parties can be corrupted by the adversary. However, due to the infamous Sybil attack, nominal models are not sufficient to express the trust assumptions in open (i.e., permissionless) settings. Instead, permissionless systems typically operate in a weighted model, where each participant is associated with a weight and the adversary can corrupt a set of parties holding at most a fraction $f_w$ of the total weight. In this paper, we suggest a simple way to transform a large class of protocols designed for the nominal model into the weighted model. To this end, we formalize and solve three novel optimization problems, which we collectively call the weight reduction problems, that allow us to map large real weights into small integer weights while preserving the properties necessary for the correctness of the protocols. In all cases, we manage to keep the sum of the integer weights to be at most linear in the number of parties, resulting in extremely efficient protocols for the weighted model. Moreover, we demonstrate that, on weight distributions that emerge in practice, the sum of the integer weights tends to be far from the theoretical worst case and, sometimes, even smaller than the number of participants. While, for some protocols, our transformation requires an arbitrarily small reduction in resilience (i.e., $f_w = f_n - \epsilon$), surprisingly, for many important problems, we manage to obtain weighted solutions with the same resilience ($f_w = f_n$) as nominal ones. Notable examples include erasure-coded distributed storage and broadcast protocols, verifiable secret sharing, and asynchronous consensus.
- Abstract(参考訳): フォールトトレラントな分散アルゴリズムの大多数は、名目上の汚職モデルとして設計されており、少なくともわずか$f_n$のパーティを敵によって汚すことができる。
しかし、悪名高いシビル攻撃のため、名目モデルではオープンな(すなわち無許可な)設定で信頼の前提を表現するには不十分である。
代わりに、無許可のシステムは一般に重み付きモデルで動作し、各参加者は重みに関連付けられ、敵は総重みの少なくとも1分の1f_w$を持つ一組の当事者を腐敗させることができる。
本稿では,名目モデルのために設計された大規模プロトコルを重み付きモデルに変換するための簡単な方法を提案する。
この目的のために、我々は3つの新しい最適化問題を定式化し、これを総称して重み付け問題と呼び、プロトコルの正しさに必要となる特性を保ちながら、大きな実重を小さな整数重みにマッピングすることができる。
いずれの場合も、整数重みの和はパーティー数において最も直線的に保たれ、結果として重み付きモデルの極めて効率的なプロトコルが得られる。
さらに、実際に現れる重み分布について、整数の重みの和は理論上の最悪の場合とは程遠い傾向にあり、場合によっては参加者の数よりも小さい傾向にあることを示した。
いくつかのプロトコルでは、我々の変換は、任意に小さなレジリエンス(例えば、$f_w = f_n - \epsilon$)を必要とするが、驚くべきことに、多くの重要な問題に対して、名目と同じレジリエンス(f_w = f_n$)で重み付けされた解を得ることができた。
注目すべき例としては、消去符号化された分散ストレージとブロードキャストプロトコル、検証可能な秘密共有、非同期コンセンサスなどがある。
関連論文リスト
- IntLoRA: Integral Low-rank Adaptation of Quantized Diffusion Models [68.55148272295916]
IntLoRAを提案し、整数型(INT)低ランクパラメータを用いて効率限界を押し上げ、量子化拡散モデルに適応させる。
IntLoRAには3つの大きな利点がある: (i) 微調整の場合、事前トレーニングされた重みは量子化され、メモリ使用量が減少する (ii) ストレージの場合、事前トレーニングされた重みと低ランクの重みの両方が、ディスクスペースを少なく消費するINT内にある; (iii) 推論の場合、IntLoRA重みは、効率的な整数乗算やビットシフトによって自然に量子化された事前トレーニングされた重みにマージできる。
論文 参考訳(メタデータ) (2024-10-29T05:50:17Z) - LOTOS: Layer-wise Orthogonalization for Training Robust Ensembles [13.776549741449557]
リプシッツ連続性が伝達率に及ぼす影響について検討する。
アンサンブルのための新しい訓練パラダイムであるLOTOSを導入し、この悪影響に対処する。
論文 参考訳(メタデータ) (2024-10-07T15:43:28Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Network reconstruction via the minimum description length principle [0.0]
階層的ベイズ推定と重み量子化に基づく別の非パラメトリック正則化スキームを提案する。
提案手法は最小記述長 (MDL) の原理に従い, データの最大圧縮を可能にする重み分布を明らかにする。
提案手法は, 人工ネットワークと経験ネットワークの再構築において, 体系的に精度を向上することを示した。
論文 参考訳(メタデータ) (2024-05-02T05:35:09Z) - SignSGD with Federated Voting [69.06621279967865]
SignSGD with majority voting (signSGD-MV) は1ビット量子化により通信コストを大幅に削減できる効果的な分散学習アルゴリズムである。
我々は、テキストフェデレート投票(signSGD-FV)を用いた新しいサインSGDを提案する。
連合投票の考え方は、学習可能な重量を利用して多数決を行うことである。
提案手法は, エッジデバイスが不均一なミニバッチサイズを使用する場合でも, 理論的収束を保証する。
論文 参考訳(メタデータ) (2024-03-25T02:32:43Z) - Quantization for decentralized learning under subspace constraints [61.59416703323886]
エージェントがサブスペース制約を最小化するために個々のコスト関数を持つ分散最適化問題を考察する。
本稿では,エージェントが確率化量子化器を用いて推定値を圧縮する適応分散型戦略を提案し,検討する。
この分析は、量子化ノイズのいくつかの一般的な条件下では、平均二乗誤差と平均ビットレートの両方で戦略が安定であることを示している。
論文 参考訳(メタデータ) (2022-09-16T09:38:38Z) - Optimal supplier of single-error-type entanglement via coherent-state
transmission [1.2891210250935146]
我々は、損失チャネル上のコヒーレント状態伝送を介して、遠隔キュービットに対する単一エラー型絡み合いを示すプロトコルを検討する。
このプロトコルは、Ebitsやpbitsのような最終的な出力を得るために、より大きなプロトコルの絡み合いを提供するサブルーチンと見なされている。
論文 参考訳(メタデータ) (2022-03-31T15:36:54Z) - Exact Backpropagation in Binary Weighted Networks with Group Weight
Transformations [0.0]
量子化に基づくモデル圧縮は、推論のためのハイパフォーマンスで高速なアプローチとして機能する。
重みをバイナリ値に制限するモデルは、ユビキタスドット製品の効率的な実装を可能にします。
論文 参考訳(メタデータ) (2021-07-03T10:29:34Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Boosting Data Reduction for the Maximum Weight Independent Set Problem
Using Increasing Transformations [59.84561168501493]
最大重み独立集合問題に対する新しい一般化データ削減および変換規則を導入する。
驚くべきことに、これらのいわゆる増進変換は問題を単純化し、還元空間を開き、アルゴリズムの後にさらに小さな既約グラフが得られる。
提案アルゴリズムは, 1つのインスタンスを除くすべての既約グラフを計算し, 従来よりも多くのインスタンスを最適に解き, 最高の最先端解法よりも最大2桁高速に解き, 解法DynWVCやHILSよりも高品質な解を求める。
論文 参考訳(メタデータ) (2020-08-12T08:52:50Z) - On the Approximability of Weighted Model Integration on DNF Structures [13.986963122264632]
DNF構造上の重み付きモデル積分は、実際には重み関数のクラスに対して近似できることを示す。
我々の近似アルゴリズムは3つのサブルーチンに基づいており、それぞれが弱い(すなわち近似)または強い(すなわち正確な)オラクルとなる。
論文 参考訳(メタデータ) (2020-02-17T00:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。