論文の概要: Distributed Randomized Kaczmarz for the Adversarial Workers
- arxiv url: http://arxiv.org/abs/2302.14615v1
- Date: Fri, 24 Feb 2023 01:26:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 16:05:21.699144
- Title: Distributed Randomized Kaczmarz for the Adversarial Workers
- Title(参考訳): 逆作業者のための分散ランダム化カッツマルツ
- Authors: Longxiu Huang, Xia Li, Deanna Needell
- Abstract要約: 本稿では,凸最適化問題に対して逆耐性を持つ反復的アプローチを提案する。
本手法は収束を保証し,逆分布に適応することができる。
- 参考スコア(独自算出の注目度): 12.372713404289264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing large-scale distributed methods that are robust to the presence of
adversarial or corrupted workers is an important part of making such methods
practical for real-world problems. In this paper, we propose an iterative
approach that is adversary-tolerant for convex optimization problems. By
leveraging simple statistics, our method ensures convergence and is capable of
adapting to adversarial distributions. Additionally, the efficiency of the
proposed methods for solving convex problems is shown in simulations with the
presence of adversaries. Through simulations, we demonstrate the efficiency of
our approach in the presence of adversaries and its ability to identify
adversarial workers with high accuracy and tolerate varying levels of adversary
rates.
- Abstract(参考訳): 敵や腐敗した労働者の存在に頑健な大規模分散手法の開発は、現実の問題を解決する上で重要な要素である。
本稿では,凸最適化問題に対して逆耐性を持つ反復的アプローチを提案する。
本手法は, 単純な統計量を利用して収束を保証し, 逆分布に適応できる。
さらに, 対流問題を解くための提案手法の効率性は, 敵の存在下でのシミュレーションで示される。
シミュレーションにより, 敵の存在下でのアプローチの効率と, 敵の労働者を高い精度で識別し, 様々な敵率のレベルを許容する能力を示す。
関連論文リスト
- Enhancing Adversarial Robustness via Uncertainty-Aware Distributional Adversarial Training [43.766504246864045]
そこで本研究では,不確実性を考慮した分散対向学習手法を提案する。
提案手法は, 最先端の対向性を実現し, 自然性能を維持できる。
論文 参考訳(メタデータ) (2024-11-05T07:26:24Z) - Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - Rethinking Invariance Regularization in Adversarial Training to Improve Robustness-Accuracy Trade-off [7.202931445597171]
対人訓練は、敵の例(AE)に対抗するための最先端のアプローチである。
正確さを犠牲にして高いロバスト性を達成するという、ロバストネスのトレードオフに悩まされる。
本手法は,識別能力を犠牲にすることなく,逆不変表現を学習することにより,ロバスト性・精度のトレードオフを大幅に改善する。
論文 参考訳(メタデータ) (2024-02-22T15:53:46Z) - Distributed randomized Kaczmarz for the adversarial workers [12.372713404289264]
最小二乗問題に対して逆耐性の反復的アプローチを提案する。
提案手法の効率性は, 敵の存在下でのシミュレーションで示される。
論文 参考訳(メタデータ) (2022-02-28T21:10:43Z) - Distributionally Robust Learning with Stable Adversarial Training [34.74504615726101]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
そこで本稿では,異種データソースを活用して,より実用的な不確実性セットを構築する,SAL(Stable Adversarial Learning)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-30T03:05:45Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Stable Adversarial Learning under Distributional Shifts [46.98655899839784]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
本研究では、異種データソースを活用してより実用的な不確実性セットを構築する安定適応学習(SAL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-08T08:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。