論文の概要: Bankrupting DoS Attackers
- arxiv url: http://arxiv.org/abs/2205.08287v4
- Date: Wed, 12 Feb 2025 16:45:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:43:53.272784
- Title: Bankrupting DoS Attackers
- Title(参考訳): DoS攻撃者の倒産
- Authors: Trisha Chakraborty, Abir Islam, Valerie King, Daniel Rayborn, Jared Saia, Maxwell Young,
- Abstract要約: 異なる同期モデルの下でサーバの価格設定アルゴリズムを記述・解析する。
提案手法は, 定数係数内における推定値の精度が一定である場合に, 厳密な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.06597195879147556
- License:
- Abstract: Can we make a denial-of-service attacker pay more than the server and honest clients? Consider a model where a server sees a stream of jobs sent by either honest clients or an adversary. The server sets a price for servicing each job with the aid of an estimator, which provides approximate statistical information about the distribution of previously occurring good jobs. We describe and analyze pricing algorithms for the server under different models of synchrony, with total cost parameterized by the accuracy of the estimator. Given a reasonably accurate estimator, the algorithm's cost provably grows more slowly than the attacker's cost, as the attacker's cost grows large. Additionally, we prove a lower bound, showing that our pricing algorithm yields asymptotically tight results when the estimator is accurate within constant factors.
- Abstract(参考訳): サービスアタッカーにサーバと正直なクライアント以上の報酬を払わせることはできるだろうか?
サーバが正直なクライアントまたは敵が送信したジョブのストリームをサーバが見ているモデルを考える。
サーバは、予め発生した良いジョブの分布に関する近似統計情報を提供する推定器の助けを借りて、各ジョブをサービスするための価格を設定する。
我々は,サーバの価格設定アルゴリズムを異なる同期モデルで記述・解析し,推定器の精度によって総コストをパラメータ化した。
合理的に正確な推定器が与えられた場合、攻撃者のコストが大きくなるにつれて、アルゴリズムのコストは攻撃者のコストよりも確実に遅くなる。
さらに, 定数係数内で推定値が正確である場合に, 価格アルゴリズムが漸近的に厳密な結果をもたらすことを示す。
関連論文リスト
- Fast Proxies for LLM Robustness Evaluation [48.53873823665833]
我々は,LLMの現実的ロバスト性を予測するための高速プロキシメトリクスと,シミュレーションされたアタッカーアンサンブルとの比較を行った。
これにより、攻撃自体の実行を必要とせずに、計算コストの高い攻撃に対するモデルの堅牢性を見積もることができる。
論文 参考訳(メタデータ) (2025-02-14T11:15:27Z) - SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Pareto-Secure Machine Learning (PSML): Fingerprinting and Securing
Inference Serving Systems [0.0]
既存のブラックボックス攻撃では、推論要求を行うために単一のモデルを繰り返し選択できると仮定している。
そこで本研究では,攻撃者が希望するモデルを連続的にトリガーできるように,クエリ効率のよいフィンガープリントアルゴリズムを提案する。
我々は,特定の性能指標にノイズを加えることで,指紋認証を阻止するノイズベースの防御機構を用いて,提案攻撃を阻止する。
論文 参考訳(メタデータ) (2023-07-03T18:53:47Z) - ZigZag: Universal Sampling-free Uncertainty Estimation Through Two-Step Inference [54.17205151960878]
汎用的でデプロイが容易なサンプリング不要のアプローチを導入します。
我々は,最先端手法と同等の信頼性のある不確実性推定を,計算コストを著しく低減した形で生成する。
論文 参考訳(メタデータ) (2022-11-21T13:23:09Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Robust Multi-Agent Multi-Armed Bandits [26.26185074977412]
最近の研究によると、$Kの武器を持った盗賊の独立した事例に直面しているエージェントが、後悔を減らすために協力できることが示されている。
我々は、悪質なエージェントの振る舞いを仮定することなく、$m$が$K$よりも小さいと仮定すると、このアルゴリズムに対するコラボレーションは本当に後悔を減らせることを示した。
論文 参考訳(メタデータ) (2020-07-07T22:27:30Z) - Corella: A Private Multi Server Learning Approach based on Correlated
Queries [30.3330177204504]
データプライバシーを保護する代替手段として、$textitCorella$を提案する。
提案手法はサーバのクラスタに依存しており,少なくともmathbbN$のTは,それぞれが学習モデルを実行することでコロードを行うことができる。
ノイズのばらつきは、情報漏洩を最大$T$サーバの任意のサブセットに、理論的に無視できるほど大きく設定されている。
論文 参考訳(メタデータ) (2020-03-26T17:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。