論文の概要: Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection
- arxiv url: http://arxiv.org/abs/2201.05819v1
- Date: Sat, 15 Jan 2022 10:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 19:00:02.715446
- Title: Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection
- Title(参考訳): グラフに基づくうわさ検出への攻撃に対する解釈可能かつ効果的な強化学習
- Authors: Yuefei Lyu, Xiaoyu Yang, Jiaxin Liu, Sihong Xie, Xi Zhang
- Abstract要約: ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
ある種の脆弱性は、グラフへの依存と疑わしいランキングによるものである。
ブラックボックス検出器を用いて、強化学習が効果的かつ解釈可能な攻撃ポリシーを学習できるように、依存関係をキャプチャする機能を設計する。
- 参考スコア(独自算出の注目度): 12.726403718158082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social networks are polluted by rumors, which can be detected by machine
learning models. However, the models are fragile and understanding the
vulnerabilities is critical to rumor detection. Certain vulnerabilities are due
to dependencies on the graphs and suspiciousness ranking and are difficult for
end-to-end methods to learn from limited noisy data. With a black-box detector,
we design features capturing the dependencies to allow a reinforcement learning
to learn an effective and interpretable attack policy based on the detector
output. To speed up learning, we devise: (i) a credit assignment method that
decomposes delayed rewards to individual attacking steps proportional to their
effects; (ii) a time-dependent control variate to reduce variance due to large
graphs and many attacking steps. On two social rumor datasets, we demonstrate:
(i) the effectiveness of the attacks compared to rule-based attacks and
end-to-end approaches; (ii) the usefulness of the proposed credit assignment
strategy and control variate; (iii) interpretability of the policy when
generating strong attacks.
- Abstract(参考訳): ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
しかし、モデルは脆弱であり、脆弱性を理解することは噂の検出に不可欠である。
特定の脆弱性は、グラフへの依存性と疑わしいランキングのためであり、限られたノイズデータからエンドツーエンドのメソッドを学ぶのが困難である。
ブラックボックス検出器を用いて, 依存関係を捕捉し, 強化学習者が検出器出力に基づいて効果的かつ解釈可能な攻撃ポリシーを学習できるように設計する。
学習をスピードアップするために
(i)その効果に比例する個々人の攻撃段階に対する遅滞報酬を分解する信用割当方法
(ii) 時間依存制御は、大きなグラフと多くの攻撃ステップによるばらつきを減らすために変動する。
2つのソーシャルな噂データセットについて示す。
i) ルールベースの攻撃やエンドツーエンドアプローチと比較しての攻撃の有効性
(ii)提案のクレジット割当戦略及び制御変動の有用性
(iii)強い攻撃を発生させる際の方針の解釈可能性。
関連論文リスト
- Preference Poisoning Attacks on Reward Model Learning [49.806139447922526]
攻撃者は、目標とする結果の促進または復号化を目標として、好み比較の小さなサブセットを反転させることができることを示す。
最高の攻撃は多くの場合、非常に成功しており、最も極端な場合、100%の成功率を達成することができ、データのわずか0.3%が毒殺されている。
我々はまた、他の種類の毒殺攻撃に対する最先端の防御策が、少なくとも我々の環境では有効性に制限されていることも示している。
論文 参考訳(メタデータ) (2024-02-02T21:45:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - PACOL: Poisoning Attacks Against Continual Learners [1.569413950416037]
本研究では,悪意ある誤報によって連続学習システムを操作できることを実証する。
本稿では,連続学習者を対象としたデータ中毒攻撃の新たなカテゴリについて紹介する。
総合的な実験のセットは、一般的に使われている生成的リプレイと正規化に基づく攻撃方法に対する継続的な学習アプローチの脆弱性を示している。
論文 参考訳(メタデータ) (2023-11-18T00:20:57Z) - Transferable Availability Poisoning Attacks [26.121144846352088]
我々は、機械学習モデルの総合的なテスト精度を低下させることを目的とした、アベイラビリティーデータ中毒攻撃について検討する。
既存の毒殺対策は攻撃目標を達成することができるが、被害者は敵が攻撃をマウントするために使用するものと同じ学習方法を採用すると仮定する。
本稿では, 勾配情報を交互に活用し, 高周波中毒を発生させるTransferable Poisoningを提案する。
論文 参考訳(メタデータ) (2023-10-08T12:22:50Z) - Attacks on Online Learners: a Teacher-Student Analysis [8.567831574941252]
本稿では,オンライン学習環境における機械学習モデルに対する敵対的攻撃事例について検討する。
攻撃強度が臨界しきい値を超えると,学習者の精度が不連続に変化することが証明される。
以上の結果から,特にデータストリームを小さなバッチで処理した場合,強欲な攻撃は極めて効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-05-18T17:26:03Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。