論文の概要: Adversary-Augmented Simulation to evaluate fairness on HyperLedger Fabric
- arxiv url: http://arxiv.org/abs/2403.14342v2
- Date: Wed, 3 Apr 2024 10:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 21:48:26.831551
- Title: Adversary-Augmented Simulation to evaluate fairness on HyperLedger Fabric
- Title(参考訳): HyperLedger Fabricの公正性評価のためのAdversary-Augmented Simulation
- Authors: Erwan Mahe, Rouwaida Abdallah, Sara Tucci-Piergiovanni, Pierre-Yves Piriou,
- Abstract要約: 本稿では, 敵の仮定, 目標, 能力といった概念に基づいて構築する。
古典的な分散システムモデルに基づいて、逆アクションの使用を分類し、制限する。
本研究の目的は,各種システムモデルにおけるプロトコルの特性に及ぼすこれらの許容行動の影響について検討することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel adversary model specifically tailored to distributed systems, aiming to assess the security of blockchain networks. Building upon concepts such as adversarial assumptions, goals, and capabilities, our proposed adversary model classifies and constrains the use of adversarial actions based on classical distributed system models, defined by both failure and communication models. The objective is to study the effects of these allowed actions on the properties of distributed protocols under various system models. A significant aspect of our research involves integrating this adversary model into the Multi-Agent eXperimenter (MAX) framework. This integration enables fine-grained simulations of adversarial attacks on blockchain networks. In this paper, we particularly study four distinct fairness properties on Hyperledger Fabric with the Byzantine Fault Tolerant Tendermint consensus algorithm being selected for its ordering service. We define novel attacks that combine adversarial actions on both protocols, with the aim of violating a specific client-fairness property. Simulations confirm our ability to violate this property and allow us to evaluate the impact of these attacks on several order-fairness properties that relate orders of transaction reception and delivery.
- Abstract(参考訳): 本稿では,ブロックチェーンネットワークのセキュリティ評価を目的とした,分散システムに特化した新たな敵モデルを提案する。
敵の仮定や目標,能力といった概念に基づいて,提案した敵のモデルは,障害モデルと通信モデルの両方で定義された古典的分散システムモデルに基づく敵の行動の使用を分類し,制約する。
本研究の目的は,これらの動作が分散プロトコルの特性に与える影響を,様々なシステムモデルで検討することである。
我々の研究の重要な側面は、この逆モデルをMulti-Agent eXperimenter (MAX)フレームワークに統合することである。
この統合により、ブロックチェーンネットワークに対する敵攻撃のきめ細かいシミュレーションが可能になる。
本稿では,Byzantine Fault Tolerant Tendermintコンセンサスアルゴリズムを用いて,Hyperledger Fabric上の4つの異なる公正性特性について検討する。
我々は,特定のクライアント・フェアネス特性に違反する目的で,両プロトコルの敵行為を組み合わせた新たな攻撃を定義する。
シミュレーションにより、このプロパティに違反する可能性を確認し、トランザクションの受信と配信の順序を関連づけた秩序公平性特性に対するこれらの攻撃の影響を評価することができる。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Towards a Game-theoretic Understanding of Explanation-based Membership Inference Attacks [8.06071340190569]
ブラックボックス機械学習(ML)モデルは、メンバーシップ推論攻撃(MIA)のようなプライバシ脅威を実行するために利用することができる。
既存の作業は、敵とターゲットMLモデルの間の単一の"What if"相互作用シナリオにおいてのみ、MIAを分析している。
このような最適しきい値が存在することを証明し、MIAの起動に使用できる音響数学的定式化を提案する。
論文 参考訳(メタデータ) (2024-04-10T16:14:05Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Introducing Competition to Boost the Transferability of Targeted
Adversarial Examples through Clean Feature Mixup [21.41516849588037]
逆の例は、微妙な入力修正によって誤った予測を引き起こす可能性がある。
ディープニューラルネットワークは敵の例に影響を受けやすいため、微妙な入力修正によって誤った予測を引き起こす可能性がある。
提案手法は,対象とする対向例の転送可能性を高めるため,最適化プロセスに競合を導入することを提案する。
論文 参考訳(メタデータ) (2023-05-24T07:54:44Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Evaluating Ensemble Robustness Against Adversarial Attacks [0.0]
ニューラルネットワークを騙す目的で生成されるわずかな摂動入力である逆例は、モデル間で転送されることが知られている。
この転送可能性の概念は、ブラックボックスの設定でモデルを攻撃する可能性につながるため、重大なセキュリティ上の懸念を引き起こす。
我々は、アンサンブルの構成モデルが効果的に協調して、アンサンブル自体を対象とする対角的例の空間を減らし、グラデーションに基づく尺度を導入する。
論文 参考訳(メタデータ) (2020-05-12T13:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。