論文の概要: Adversary-Augmented Simulation to evaluate client-fairness on HyperLedger Fabric
- arxiv url: http://arxiv.org/abs/2403.14342v1
- Date: Thu, 21 Mar 2024 12:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-22 14:28:30.315594
- Title: Adversary-Augmented Simulation to evaluate client-fairness on HyperLedger Fabric
- Title(参考訳): HyperLedger Fabricにおけるクライアントフェールネス評価のためのAdversary-Augmented Simulation
- Authors: Erwan Mahe, Rouwaida Abdallah, Sara Tucci-Piergiovanni, Pierre-Yves Piriou,
- Abstract要約: 本稿では,分散システムに特化された新たな逆モデルを提案する。
障害の古典的な概念や、敵のアクションの使用を分類し、結合するためのコミュニケーションモデルが含まれています。
我々は、これらのアクションが分散プロトコルの特性に与える影響に焦点をあてる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel adversary model specifically tailored to distributed systems, with the aim to asses the security of blockchain technologies. Building upon literature on adversarial assumptions and capabilities, we include classical notions of failure and communication models to classify and bind the use of adversarial actions. We focus on the effect of these actions on properties of distributed protocols. A significant effort of our research is the integration of this model into the Multi-Agent eXperimenter (MAX) framework. This integration enables realistic simulations of adversarial attacks on blockchain systems. In particular, we have simulated attacks violating a form of client-fairness on HyperLedger Fabric.
- Abstract(参考訳): 本稿では,ブロックチェーン技術のセキュリティ評価を目的とした,分散システムに特化して設計された,新たな敵モデルを提案する。
敵の仮定と能力に関する文献に基づいて、敵の行動の使用を分類し束縛するための失敗と通信モデルという古典的な概念を含む。
我々は、これらのアクションが分散プロトコルの特性に与える影響に焦点をあてる。
我々の研究の重要な取り組みは、このモデルをMulti-Agent eXperimenter (MAX)フレームワークに統合することである。
この統合により、ブロックチェーンシステムに対する敵攻撃の現実的なシミュレーションが可能になる。
特に,HyperLedger Fabricのクライアントフェールネスに違反する攻撃をシミュレーションした。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Towards a Game-theoretic Understanding of Explanation-based Membership Inference Attacks [8.06071340190569]
ブラックボックス機械学習(ML)モデルは、メンバーシップ推論攻撃(MIA)のようなプライバシ脅威を実行するために利用することができる。
既存の作業は、敵とターゲットMLモデルの間の単一の"What if"相互作用シナリオにおいてのみ、MIAを分析している。
このような最適しきい値が存在することを証明し、MIAの起動に使用できる音響数学的定式化を提案する。
論文 参考訳(メタデータ) (2024-04-10T16:14:05Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Introducing Competition to Boost the Transferability of Targeted
Adversarial Examples through Clean Feature Mixup [21.41516849588037]
逆の例は、微妙な入力修正によって誤った予測を引き起こす可能性がある。
ディープニューラルネットワークは敵の例に影響を受けやすいため、微妙な入力修正によって誤った予測を引き起こす可能性がある。
提案手法は,対象とする対向例の転送可能性を高めるため,最適化プロセスに競合を導入することを提案する。
論文 参考訳(メタデータ) (2023-05-24T07:54:44Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z) - Evaluating Ensemble Robustness Against Adversarial Attacks [0.0]
ニューラルネットワークを騙す目的で生成されるわずかな摂動入力である逆例は、モデル間で転送されることが知られている。
この転送可能性の概念は、ブラックボックスの設定でモデルを攻撃する可能性につながるため、重大なセキュリティ上の懸念を引き起こす。
我々は、アンサンブルの構成モデルが効果的に協調して、アンサンブル自体を対象とする対角的例の空間を減らし、グラデーションに基づく尺度を導入する。
論文 参考訳(メタデータ) (2020-05-12T13:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。