論文の概要: T$_k$ML-AP: Adversarial Attacks to Top-$k$ Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2108.00146v1
- Date: Sat, 31 Jul 2021 04:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:22:14.705700
- Title: T$_k$ML-AP: Adversarial Attacks to Top-$k$ Multi-Label Learning
- Title(参考訳): T$_k$ML-AP:Top-k$ Multi-Label Learningへの対抗攻撃
- Authors: Shu Hu, Lipeng Ke, Xin Wang, Siwei Lyu
- Abstract要約: 我々は,複数ラベルの学習に基づく画像アノテーションシステムにおいて,トップ$kの攻撃に使用できる逆摂動を生成する手法を開発した。
本手法は,標的外攻撃と攻撃対象攻撃の両条件で,最先端のトップレベルk$マルチラベル学習手法の性能を低下させる。
- 参考スコア(独自算出の注目度): 36.33146863659193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Top-$k$ multi-label learning, which returns the top-$k$ predicted labels from
an input, has many practical applications such as image annotation, document
analysis, and web search engine. However, the vulnerabilities of such
algorithms with regards to dedicated adversarial perturbation attacks have not
been extensively studied previously. In this work, we develop methods to create
adversarial perturbations that can be used to attack top-$k$ multi-label
learning-based image annotation systems (TkML-AP). Our methods explicitly
consider the top-$k$ ranking relation and are based on novel loss functions.
Experimental evaluations on large-scale benchmark datasets including PASCAL VOC
and MS COCO demonstrate the effectiveness of our methods in reducing the
performance of state-of-the-art top-$k$ multi-label learning methods, under
both untargeted and targeted attacks.
- Abstract(参考訳): 入力から最大$k$のラベルを返すtop-$k$ multi-label learningには、画像アノテーション、ドキュメント分析、web検索エンジンなど、多くの実用的なアプリケーションがある。
しかし, 対人摂動攻撃に対するそのようなアルゴリズムの脆弱性については, これまで広く研究されていない。
本研究では,tkml-ap (top-k$ multi-label learning-based image annotation systems) を攻撃できる手法を開発した。
本手法は, 新規損失関数に基づいて, 上位$kのランキング関係を明示的に検討する。
PASCAL VOC や MS COCO などの大規模ベンチマークデータセットを用いた評価実験により,攻撃対象と攻撃対象の双方において,最先端のTop-the-the-art-k$マルチラベル学習手法の性能を低下させる方法の有効性が示された。
関連論文リスト
- When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - An Embarrassingly Simple Approach to Semi-Supervised Few-Shot Learning [58.59343434538218]
間接学習の観点から、ラベルなしデータの正負の擬似ラベルを正確に予測するための、単純だが非常に効果的な手法を提案する。
私たちのアプローチは、オフザシェルフ操作のみを使用することで、ほんの数行のコードで実装できます。
論文 参考訳(メタデータ) (2022-09-28T02:11:34Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Inconsistent Few-Shot Relation Classification via Cross-Attentional
Prototype Networks with Contrastive Learning [16.128652726698522]
本稿では,Prototype Network-based Cross-attention contrastive Learning (ProtoCACL)を提案する。
実験結果から,我々のProtoCACLは,非一貫性な$K$と非一貫性な$N$設定の両方で,最先端のベースラインモデルより優れていることが示された。
論文 参考訳(メタデータ) (2021-10-13T07:47:13Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Effective Evaluation of Deep Active Learning on Image Classification
Tasks [10.27095298129151]
画像分類の文脈において,最先端の能動学習アルゴリズムを統一的に実装する。
正の面では、AL手法はデータ拡張によるRSに比べてラベル効率が2倍から4倍高いことを示す。
論文 参考訳(メタデータ) (2021-06-16T23:29:39Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Active Learning Under Malicious Mislabeling and Poisoning Attacks [2.4660652494309936]
ディープニューラルネットワークは通常、トレーニングのために大きなラベル付きデータセットを必要とする。
これらのデータのほとんどはラベルなしであり、データ中毒攻撃に弱い。
本稿では,ラベル付きインスタンスの少ない効率的な能動的学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-01T03:43:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。