論文の概要: On Sybil-proofness in Restaking Networks
- arxiv url: http://arxiv.org/abs/2509.18338v1
- Date: Mon, 22 Sep 2025 19:01:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.53591
- Title: On Sybil-proofness in Restaking Networks
- Title(参考訳): 再誘引ネットワークにおける防力性について
- Authors: Tarun Chitra, Paolo Penna, Manvir Schneider,
- Abstract要約: プロトコルの再取得は、コンセンサスを超えてバリデータ責任を拡大するが、セキュリティはSybil攻撃に対する抵抗に依存する。
本稿では,2種類の攻撃を区別し,ネットワーク再抽出におけるSybil-proofnessの形式的枠組みを提案する。
限界スラッシュ機構と乗法的スラッシュ機構を解析し,シビル戦略を抑える条件を特徴付ける。
- 参考スコア(独自算出の注目度): 1.8925617030516928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Restaking protocols expand validator responsibilities beyond consensus, but their security depends on resistance to Sybil attacks. We introduce a formal framework for Sybil-proofness in restaking networks, distinguishing between two types of attacks, one in which other Sybil identities are kept out of an attack and one where multiple Sybil identities attack. We analyze marginal and multiplicative slashing mechanisms and characterize the conditions under which each deters Sybil strategies. We then prove an impossibility theorem: no slashing mechanism can simultaneously prevent both attack types. Finally, we study the impact of network structure through random graph models: while Erd\"os-R\'enyi networks remain Sybil-proof, even minimal heterogeneity in a two-block stochastic block model makes Sybil attacks profitable. These results reveal fundamental limits of mechanism design for restaking and highlight the critical role of network topology.
- Abstract(参考訳): プロトコルの再取得は、コンセンサスを超えてバリデータ責任を拡大するが、セキュリティはSybil攻撃に対する抵抗に依存する。
本稿では,ネットワーク再抽出におけるシビルの安全性に関する公式な枠組みを紹介し,他のシビルのアイデンティティが攻撃から切り離された2種類の攻撃と,複数のシビルのアイデンティティが攻撃された2つの攻撃を区別する。
限界スラッシュ機構と乗法的スラッシュ機構を解析し,シビル戦略を抑える条件を特徴付ける。
そして、我々は不合理な定理を証明し、スラッシュ機構は両方の攻撃タイプを同時に防止できない。
最後に、ランダムグラフモデルによるネットワーク構造の影響について検討する: Erd\"os-R'enyi ネットワークは、Sybil-proofのままであるが、2ブロック確率ブロックモデルにおける最小の不均一性でさえ、Sybil 攻撃を収益化させる。
これらの結果から,ネットワークトポロジの重要な役割を浮き彫りにする機構設計の基本的限界が明らかとなった。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - The Relationship Between Network Similarity and Transferability of Adversarial Attacks [0.0]
我々は,多数の畳み込みニューラルネットワーク(CNN)と敵攻撃の相関関係を見出した。
レイヤの類似性は、DataParallel、Dropout、Conv2dといった一貫性のある基本的なレイヤにとって最も高かった。
DecisionTreeRegressorは、90%以上の精度で転送された攻撃の成功率を予測することができる。
論文 参考訳(メタデータ) (2025-01-27T17:07:00Z) - An Attentive Graph Agent for Topology-Adaptive Cyber Defence [1.0812794909131096]
我々は,ネットワーク状態を有向グラフとして符号化するCyber Operations Research Gym(CybORG)環境のカスタムバージョンを開発する。
我々は、ノード、エッジ、グローバル機能を処理するために、グラフ注意ネットワーク(GAT)アーキテクチャを使用し、その出力を強化学習におけるポリシー勾配手法と互換性に適応させる。
我々は,シミュレーション中に予期せぬ接続が発生した場合でも,低レベル指向グラフ観測を用いてGAT防御ポリシーを訓練できることを実証した。
論文 参考訳(メタデータ) (2025-01-24T18:22:37Z) - Sybil Detection using Graph Neural Networks [20.706469085872516]
本稿では,グラフ注意ネットワーク(GAT)を用いたソーシャルネットワークにおけるSYBILGATを提案する。
提案手法は,アグリゲーション中に異なるノードに注意重みを動的に割り当てることで,検出性能を向上させる。
269kのノードと6.8Mのエッジを持つ実世界のTwitterグラフに、このモデルをうまく適用しました。
論文 参考訳(メタデータ) (2024-09-13T08:35:28Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Resilience of Bayesian Layer-Wise Explanations under Adversarial Attacks [3.222802562733787]
決定論的ニューラルネットワークでは,攻撃が失敗した場合でも,サリエンシ解釈が著しく脆弱であることを示す。
ベイジアンニューラルネットワークによるサリエンシの説明は, 対向的摂動下ではかなり安定していることを示す。
論文 参考訳(メタデータ) (2021-02-22T14:07:24Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。