論文の概要: Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection
- arxiv url: http://arxiv.org/abs/2201.05819v1
- Date: Sat, 15 Jan 2022 10:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 19:00:02.715446
- Title: Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection
- Title(参考訳): グラフに基づくうわさ検出への攻撃に対する解釈可能かつ効果的な強化学習
- Authors: Yuefei Lyu, Xiaoyu Yang, Jiaxin Liu, Sihong Xie, Xi Zhang
- Abstract要約: ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
ある種の脆弱性は、グラフへの依存と疑わしいランキングによるものである。
ブラックボックス検出器を用いて、強化学習が効果的かつ解釈可能な攻撃ポリシーを学習できるように、依存関係をキャプチャする機能を設計する。
- 参考スコア(独自算出の注目度): 12.726403718158082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social networks are polluted by rumors, which can be detected by machine
learning models. However, the models are fragile and understanding the
vulnerabilities is critical to rumor detection. Certain vulnerabilities are due
to dependencies on the graphs and suspiciousness ranking and are difficult for
end-to-end methods to learn from limited noisy data. With a black-box detector,
we design features capturing the dependencies to allow a reinforcement learning
to learn an effective and interpretable attack policy based on the detector
output. To speed up learning, we devise: (i) a credit assignment method that
decomposes delayed rewards to individual attacking steps proportional to their
effects; (ii) a time-dependent control variate to reduce variance due to large
graphs and many attacking steps. On two social rumor datasets, we demonstrate:
(i) the effectiveness of the attacks compared to rule-based attacks and
end-to-end approaches; (ii) the usefulness of the proposed credit assignment
strategy and control variate; (iii) interpretability of the policy when
generating strong attacks.
- Abstract(参考訳): ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
しかし、モデルは脆弱であり、脆弱性を理解することは噂の検出に不可欠である。
特定の脆弱性は、グラフへの依存性と疑わしいランキングのためであり、限られたノイズデータからエンドツーエンドのメソッドを学ぶのが困難である。
ブラックボックス検出器を用いて, 依存関係を捕捉し, 強化学習者が検出器出力に基づいて効果的かつ解釈可能な攻撃ポリシーを学習できるように設計する。
学習をスピードアップするために
(i)その効果に比例する個々人の攻撃段階に対する遅滞報酬を分解する信用割当方法
(ii) 時間依存制御は、大きなグラフと多くの攻撃ステップによるばらつきを減らすために変動する。
2つのソーシャルな噂データセットについて示す。
i) ルールベースの攻撃やエンドツーエンドアプローチと比較しての攻撃の有効性
(ii)提案のクレジット割当戦略及び制御変動の有用性
(iii)強い攻撃を発生させる際の方針の解釈可能性。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - PACOL: Poisoning Attacks Against Continual Learners [1.569413950416037]
本研究では,悪意ある誤報によって連続学習システムを操作できることを実証する。
本稿では,連続学習者を対象としたデータ中毒攻撃の新たなカテゴリについて紹介する。
総合的な実験のセットは、一般的に使われている生成的リプレイと正規化に基づく攻撃方法に対する継続的な学習アプローチの脆弱性を示している。
論文 参考訳(メタデータ) (2023-11-18T00:20:57Z) - Attacks on Online Learners: a Teacher-Student Analysis [8.567831574941252]
本稿では,オンライン学習環境における機械学習モデルに対する敵対的攻撃事例について検討する。
攻撃強度が臨界しきい値を超えると,学習者の精度が不連続に変化することが証明される。
以上の結果から,特にデータストリームを小さなバッチで処理した場合,強欲な攻撃は極めて効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-05-18T17:26:03Z) - Universal Distributional Decision-based Black-box Adversarial Attack
with Reinforcement Learning [5.240772699480865]
そこで我々は,強化学習アルゴリズムを用いて,対向的摂動の分布を求める画素ワイドな決定に基づく攻撃アルゴリズムを提案する。
実験により,提案手法は,攻撃成功率の向上と伝達可能性の向上により,最先端の意思決定ベース攻撃よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-11-15T18:30:18Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。