論文の概要: Game of Coding: Coding Theory in the Presence of Rational Adversaries, Motivated by Decentralized Machine Learning
- arxiv url: http://arxiv.org/abs/2601.02313v1
- Date: Mon, 05 Jan 2026 18:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.341451
- Title: Game of Coding: Coding Theory in the Presence of Rational Adversaries, Motivated by Decentralized Machine Learning
- Title(参考訳): ゲーム・オブ・コーディング:分散機械学習に動機づけられた論理的敵の存在下での符号化理論
- Authors: Hanzaleh Akbari Nodehi, Viveck R. Cadambe, Mohammad Ali Maddah-Ali,
- Abstract要約: 符号化理論は、信頼できる通信、記憶、計算を可能にする上で重要な役割を果たす。
新興の分散アプリケーション、特に分散機械学習(DeML)では、参加ノードは受け入れられたコントリビューションに対して報酬を受ける。
コーディング理論を信頼最小化設定に拡張する新しいゲーム理論フレームワークであるコーディングゲームを紹介する。
- 参考スコア(独自算出の注目度): 16.147310961390534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Coding theory plays a crucial role in enabling reliable communication, storage, and computation. Classical approaches assume a worst-case adversarial model and ensure error correction and data recovery only when the number of honest nodes exceeds the number of adversarial ones by some margin. However, in some emerging decentralized applications, particularly in decentralized machine learning (DeML), participating nodes are rewarded for accepted contributions. This incentive structure naturally gives rise to rational adversaries who act strategically rather than behaving in purely malicious ways. In this paper, we first motivate the need for coding in the presence of rational adversaries, particularly in the context of outsourced computation in decentralized systems. We contrast this need with existing approaches and highlight their limitations. We then introduce the game of coding, a novel game-theoretic framework that extends coding theory to trust-minimized settings where honest nodes are not in the majority. Focusing on repetition coding, we highlight two key features of this framework: (1) the ability to achieve a non-zero probability of data recovery even when adversarial nodes are in the majority, and (2) Sybil resistance, i.e., the equilibrium remains unchanged even as the number of adversarial nodes increases. Finally, we explore scenarios in which the adversary's strategy is unknown and outline several open problems for future research.
- Abstract(参考訳): 符号化理論は、信頼できる通信、記憶、計算を可能にする上で重要な役割を果たす。
古典的アプローチでは、最悪の対逆モデルを仮定し、真正なノード数が対逆のノード数を超える場合にのみ、誤り訂正とデータ回復をある程度のマージンで保証する。
しかし、いくつかの新興分散アプリケーション、特に分散機械学習(DeML)では、参加ノードは受け入れられたコントリビューションに対して報酬を受ける。
このインセンティブ構造は、純粋に悪意ある方法で行動するのではなく、戦略的に行動する合理的な敵を自然に引き起こす。
本稿では、まず、合理的な敵の存在下でのコーディングの必要性を、特に分散システムにおけるアウトソース計算の文脈において動機づける。
このニーズを既存のアプローチと対比し、その制限を強調します。
次に、コーディング理論を拡張して、正直なノードが多数ではない信頼最小化設定に拡張する、新しいゲーム理論フレームワークであるコーディングのゲームを紹介します。
繰り返し符号化に焦点をあてて,(1)敵対ノードが多数派である場合でも,データ回復の非ゼロ確率を達成する能力,(2)反逆ノードの数が増えても平衡は変化しない,という2つの特徴を強調した。
最後に,敵の戦略が不明なシナリオについて考察し,今後の研究課題について概説する。
関連論文リスト
- Game of Coding With an Unknown Adversary [15.839621757142597]
新興の分散型アプリケーションによって動機づけられたコーディングフレームワークは、符号化されたシンボルに対する敵の制御が従来の符号化理論の基本的な限界を超えるシナリオに対処するために導入された。
デコーダは、データコレクタ(DC)として、受け入れと拒絶のメカニズムを持ち、次に推定モジュールが続くが、敵は、その実用性を最大化することを目指している。
我々は,直流が相手の効用関数を知らずに平衡付近で達成できる戦略にコミットできるアルゴリズムを開発する。
論文 参考訳(メタデータ) (2025-02-10T23:06:10Z) - A Quantum Algorithm for Assessing Node Importance in the st-Connectivity Attack [0.8739101659113155]
この研究は、ターゲット接続を維持するノードの重要性を近似するための量子的アプローチを記述する。
近似法は、st結合性およびシャプリー値の近似に量子サブルーチンに依存する。
悪意あるアクターがノードのサブセットを乱してシステム機能を乱す、st接続攻撃シナリオを考察する。
論文 参考訳(メタデータ) (2025-02-01T14:40:52Z) - Protocol Learning, Decentralized Frontier Risk and the No-Off Problem [56.74434512241989]
私たちは第3のパラダイムであるプロトコル学習(Protocol Learning)を特定します。
このアプローチは、単一の集中型エンティティよりも桁違いに多くの計算資源を集約する可能性がある。
また、不均一で信頼性の低いノード、悪意のある参加者、インセンティブを維持するために抽出不可能なモデルの必要性、複雑なガバナンスのダイナミクスなど、新しい課題も導入されている。
論文 参考訳(メタデータ) (2024-12-10T19:53:50Z) - Game of Coding: Sybil Resistant Decentralized Machine Learning with Minimal Trust Assumption [20.564198591600647]
本稿では,コーディングフレームワークのゲームにおけるノード数の増加がもたらす意味について検討する。
敵ノード数の増加による敵ノードの柔軟性の増大にもかかわらず、敵ノードのパワー向上は敵ノードにとって有益ではないことを示す。
論文 参考訳(メタデータ) (2024-10-07T22:49:47Z) - Sparse Decentralized Federated Learning [35.32297764027417]
分散フェデレートラーニング(DFL)は、中央サーバーなしで協調的なモデルトレーニングを可能にするが、効率、安定性、信頼性の課題に直面している。
Sparse DFL (SDFL) に繋がる共有モデルに空間制約を導入し,新しいアルゴリズムCEPSを提案する。
数値実験により,高い信頼性を維持しつつ,コミュニケーションと効率を向上させるための提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。