論文の概要: Self-Creating Random Walks for Decentralized Learning under Pac-Man Attacks
- arxiv url: http://arxiv.org/abs/2601.07674v1
- Date: Mon, 12 Jan 2026 16:00:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.544469
- Title: Self-Creating Random Walks for Decentralized Learning under Pac-Man Attacks
- Title(参考訳): パックマン攻撃下での分散型学習のための自己修正ランダムウォーク
- Authors: Xingran Chen, Parimal Parag, Rohit Bhagat, Salim El Rouayheb,
- Abstract要約: 我々は,悪質なノードが訪問する任意のRWを確率的に終了させる,パックマン攻撃(Pac-Man's attack)と呼ぶ敵の脅威を調査する。
このステルスな動作は、ネットワークからアクティブなRWを徐々に排除し、障害アラームを発生させることなく、学習プロセスを効果的に停止させる。
この脅威に対処するため,自己生成可能な完全分散・レジリエンス機構であるCREATE-IF-LATE (CIL) アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.36390411592244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Random walk (RW)-based algorithms have long been popular in distributed systems due to low overheads and scalability, with recent growing applications in decentralized learning. However, their reliance on local interactions makes them inherently vulnerable to malicious behavior. In this work, we investigate an adversarial threat that we term the ``Pac-Man'' attack, in which a malicious node probabilistically terminates any RW that visits it. This stealthy behavior gradually eliminates active RWs from the network, effectively halting the learning process without triggering failure alarms. To counter this threat, we propose the CREATE-IF-LATE (CIL) algorithm, which is a fully decentralized, resilient mechanism that enables self-creating RWs and prevents RW extinction in the presence of Pac-Man. Our theoretical analysis shows that the CIL algorithm guarantees several desirable properties, such as (i) non-extinction of the RW population, (ii) almost sure boundedness of the RW population, and (iii) convergence of RW-based stochastic gradient descent even in the presence of Pac-Man with a quantifiable deviation from the true optimum. Moreover, the learning process experiences at most a linear time delay due to Pac-Man interruptions and RW regeneration. Our extensive empirical results on both synthetic and public benchmark datasets validate our theoretical findings.
- Abstract(参考訳): ランダムウォーク(RW)ベースのアルゴリズムは、低オーバーヘッドとスケーラビリティのため、分散システムで長い間人気があり、近年は分散学習の応用が増加している。
しかし、局所的な相互作用に依存しているため、それらは本質的に悪意のある行動に弱い。
本研究では,悪意のあるノードが訪問する任意のRWを確率的に終了する「パックマン攻撃」と呼ばれる敵の脅威を調査する。
このステルスな動作は、ネットワークからアクティブなRWを徐々に排除し、障害アラームを発生させることなく、学習プロセスを効果的に停止させる。
この脅威に対処するため, Pac-Man の存在下での RW の自己生成と RW の消滅を防止し, 完全分散型かつレジリエントなメカニズムであるCREATE-IF-LATE (CIL) アルゴリズムを提案する。
我々の理論解析は、CILアルゴリズムがいくつかの望ましい性質を保証していることを示している。
(i)RW人口の非絶滅。
(II)RW集団のほぼ確実に有界性、及び
3) Pac-Man の存在下においても, RW に基づく確率勾配勾配の収束は, 真の最適値から定量的に逸脱する。
さらに、学習プロセスは、パックマンの中断とRW再生により、少なくとも線形時間遅れを経験する。
人工的および公開的なベンチマークデータセットの広範な実験結果により、理論的な結果が検証された。
関連論文リスト
- Random Walk Learning and the Pac-Man Attack [25.71166923112231]
我々は,悪質なノードが訪問する任意のRWを確率的に終了させる,パックマン攻撃(Pac-Man's attack)と呼ぶ敵の脅威を調査する。
このステルスな動作は、ネットワークからアクティブなRWを徐々に排除し、障害アラームを発生させることなく、学習プロセスを効果的に停止させる。
この脅威に対処するために、パックマンの存在下でのRWの消滅を防止するために、RWの完全分散機構である平均交差(AC)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-08-01T02:27:02Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Self-Regulating Random Walks for Resilient Decentralized Learning on Graphs [27.119118776482477]
本稿では,グラフ上で所望数のランダムウォーク(RW)を維持するために,2つの分散アルゴリズムを提案する。
DecAForkとDecAFork+は、多くのRWをフォークすることで、ネットワークのオーバーロードを避けることができる。
我々は、DecAForkとDecAFork+の性能を示す広範な数値シミュレーションを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:22:22Z) - REBEL: Reward Regularization-Based Approach for Robotic Reinforcement Learning from Human Feedback [61.54791065013767]
報酬関数と人間の嗜好の相違は、現実世界で破滅的な結果をもたらす可能性がある。
近年の手法は、人間の嗜好から報酬関数を学習することで、不適応を緩和することを目的としている。
本稿では,ロボットRLHFフレームワークにおける報酬正規化の新たな概念を提案する。
論文 参考訳(メタデータ) (2023-12-22T04:56:37Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Robust Reinforcement Learning using Adversarial Populations [118.73193330231163]
強化学習(Reinforcement Learning, RL)は、コントローラ設計に有効なツールであるが、堅牢性の問題に対処できる。
一つの逆数を使うことは、逆数の標準的なパラメトリゼーションの下での動的変動に一貫して堅牢性をもたらすわけではないことを示す。
本稿では,ロバスト RL の定式化に対する人口ベース増進法を提案する。
論文 参考訳(メタデータ) (2020-08-04T20:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。