論文の概要: Defending a Music Recommender Against Hubness-Based Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2205.12032v1
- Date: Tue, 24 May 2022 12:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 22:58:24.443794
- Title: Defending a Music Recommender Against Hubness-Based Adversarial Attacks
- Title(参考訳): ハブネスに基づく敵の攻撃から音楽レコメンデーションを守る
- Authors: Katharina Hoedt, Arthur Flexer, Gerhard Widmer
- Abstract要約: 本稿では,高次元データ空間で動作するレコメンデータの脆弱性を利用した攻撃に対する新たな防御方法を提案する。
我々は,Mutual Proximity (MP) と呼ばれるグローバルなデータスケーリング手法を用いて,実世界の音楽レコメンデータを保護する。
防衛手段としてMPを使用することで,様々な攻撃に対するレコメンデータの堅牢性が大きく向上することがわかった。
- 参考スコア(独自算出の注目度): 6.68194398006805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks can drastically degrade performance of recommenders and
other machine learning systems, resulting in an increased demand for defence
mechanisms. We present a new line of defence against attacks which exploit a
vulnerability of recommenders that operate in high dimensional data spaces (the
so-called hubness problem). We use a global data scaling method, namely Mutual
Proximity (MP), to defend a real-world music recommender which previously was
susceptible to attacks that inflated the number of times a particular song was
recommended. We find that using MP as a defence greatly increases robustness of
the recommender against a range of attacks, with success rates of attacks
around 44% (before defence) dropping to less than 6% (after defence).
Additionally, adversarial examples still able to fool the defended system do so
at the price of noticeably lower audio quality as shown by a decreased average
SNR.
- Abstract(参考訳): 敵の攻撃はレコメンダやその他の機械学習システムのパフォーマンスを劇的に低下させ、防御機構の需要が増大する。
本稿では,高次元データ空間で動作するリコメンデータの脆弱性(いわゆるハブネス問題)を利用した攻撃に対する新たな防御方法を提案する。
我々は,これまで特定の楽曲が推奨された回数を膨らませた攻撃を受けやすい実世界の音楽推薦者を守るために,グローバルデータスケーリング手法である相互近接(mp)を用いた。
防衛手段としてのMPの使用は、様々な攻撃に対するレコメンデーターの堅牢性を大幅に向上させ、攻撃の成功率は約44%(防衛前)が6%未満(防衛後)に低下した。
さらに、防御されたシステムを騙すことができる敵の例は、平均的なSNRが示すように、明らかに低音質である。
関連論文リスト
- Optimal Attack and Defense for Reinforcement Learning [12.418400006063218]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - Hindering Adversarial Attacks with Multiple Encrypted Patch Embeddings [13.604830818397629]
効率性とロバスト性の両方に着目したキーベースの新たな防衛手法を提案する。
我々は,(1)効率的なトレーニングと(2)任意ランダム化という2つの大きな改善をともなう,以前の防衛基盤を構築した。
実験はImageNetデータセット上で行われ、提案された防御は最先端の攻撃兵器に対して評価された。
論文 参考訳(メタデータ) (2023-09-04T14:08:34Z) - Adversarial Attacks on Adversarial Bandits [10.891819703383408]
攻撃者は,任意の非相対的帯域幅アルゴリズムをミスリードして,準最適目標アームを選択することができることを示す。
この結果は、現実世界の盗賊ベースのシステムにおける重要なセキュリティ上の懸念を意味する。
論文 参考訳(メタデータ) (2023-01-30T00:51:39Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - A Game Theoretic Analysis of Additive Adversarial Attacks and Defenses [4.94950858749529]
均衡状態にある攻撃や防御を研究するためのゲーム理論の枠組みを提案する。
データ生成分布から有限個のサンプルからこの平衡防衛を近似する方法を示す。
論文 参考訳(メタデータ) (2020-09-14T15:51:15Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。