論文の概要: Defending a Music Recommender Against Hubness-Based Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2205.12032v1
- Date: Tue, 24 May 2022 12:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 22:58:24.443794
- Title: Defending a Music Recommender Against Hubness-Based Adversarial Attacks
- Title(参考訳): ハブネスに基づく敵の攻撃から音楽レコメンデーションを守る
- Authors: Katharina Hoedt, Arthur Flexer, Gerhard Widmer
- Abstract要約: 本稿では,高次元データ空間で動作するレコメンデータの脆弱性を利用した攻撃に対する新たな防御方法を提案する。
我々は,Mutual Proximity (MP) と呼ばれるグローバルなデータスケーリング手法を用いて,実世界の音楽レコメンデータを保護する。
防衛手段としてMPを使用することで,様々な攻撃に対するレコメンデータの堅牢性が大きく向上することがわかった。
- 参考スコア(独自算出の注目度): 6.68194398006805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks can drastically degrade performance of recommenders and
other machine learning systems, resulting in an increased demand for defence
mechanisms. We present a new line of defence against attacks which exploit a
vulnerability of recommenders that operate in high dimensional data spaces (the
so-called hubness problem). We use a global data scaling method, namely Mutual
Proximity (MP), to defend a real-world music recommender which previously was
susceptible to attacks that inflated the number of times a particular song was
recommended. We find that using MP as a defence greatly increases robustness of
the recommender against a range of attacks, with success rates of attacks
around 44% (before defence) dropping to less than 6% (after defence).
Additionally, adversarial examples still able to fool the defended system do so
at the price of noticeably lower audio quality as shown by a decreased average
SNR.
- Abstract(参考訳): 敵の攻撃はレコメンダやその他の機械学習システムのパフォーマンスを劇的に低下させ、防御機構の需要が増大する。
本稿では,高次元データ空間で動作するリコメンデータの脆弱性(いわゆるハブネス問題)を利用した攻撃に対する新たな防御方法を提案する。
我々は,これまで特定の楽曲が推奨された回数を膨らませた攻撃を受けやすい実世界の音楽推薦者を守るために,グローバルデータスケーリング手法である相互近接(mp)を用いた。
防衛手段としてのMPの使用は、様々な攻撃に対するレコメンデーターの堅牢性を大幅に向上させ、攻撃の成功率は約44%(防衛前)が6%未満(防衛後)に低下した。
さらに、防御されたシステムを騙すことができる敵の例は、平均的なSNRが示すように、明らかに低音質である。
関連論文リスト
- Noise as a Double-Edged Sword: Reinforcement Learning Exploits Randomized Defenses in Neural Networks [1.788784870849724]
本研究では,騒音による防御が,特定のシナリオにおける回避攻撃を不注意に支援する可能性について検討する。
ノイズベースの防御は、RL攻撃者に有益な敵の訓練ループを不注意に作成する場合もある。
ランダム性は、回避攻撃に対する防衛を普遍的に強化する、という仮定に挑戦する。
論文 参考訳(メタデータ) (2024-10-31T12:22:19Z) - SPIN: Self-Supervised Prompt INjection [16.253558670549697]
敵の攻撃と脱獄攻撃は 安全アライメントを回避し モデルに有害な反応をもたらすよう提案されている
自己監督型プロンプト注入(SPIN)を導入し,LSMに対するこれらの様々な攻撃を検出し,逆転させることができる。
本システムでは,攻撃成功率を87.9%まで削減し,ユーザ要求の良質な性能を維持しながら,攻撃成功率を最大で87.9%削減する。
論文 参考訳(メタデータ) (2024-10-17T05:40:54Z) - Improving the Shortest Plank: Vulnerability-Aware Adversarial Training for Robust Recommender System [60.719158008403376]
VAT(Vulnerability-aware Adversarial Training)は、レコメンデーションシステムにおける中毒攻撃に対する防御を目的とした訓練である。
VATは、システムの適合度に基づいて、ユーザの脆弱性を推定するために、新たな脆弱性認識機能を採用している。
論文 参考訳(メタデータ) (2024-09-26T02:24:03Z) - Optimal Attack and Defense for Reinforcement Learning [11.36770403327493]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - Adversarial Attacks on Adversarial Bandits [10.891819703383408]
攻撃者は,任意の非相対的帯域幅アルゴリズムをミスリードして,準最適目標アームを選択することができることを示す。
この結果は、現実世界の盗賊ベースのシステムにおける重要なセキュリティ上の懸念を意味する。
論文 参考訳(メタデータ) (2023-01-30T00:51:39Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。