論文の概要: Showing Many Labels in Multi-label Classification Models: An Empirical Study of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2409.17568v1
- Date: Thu, 26 Sep 2024 06:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 22:46:14.783489
- Title: Showing Many Labels in Multi-label Classification Models: An Empirical Study of Adversarial Examples
- Title(参考訳): 多ラベル分類モデルにおける多くのラベルの表示--敵対的事例の実証的研究
- Authors: Yujiang Liu, Wenjian Luo, Zhijian Chen, Muhammad Luqman Naseem,
- Abstract要約: 我々は、"Showing Many Labels"と呼ばれる新しいタイプの攻撃を導入する。
Showing Many Labels" では、反復攻撃はワンステップ攻撃よりもはるかに優れている。
データセット内のすべてのラベルを表示することができる。
- 参考スコア(独自算出の注目度): 1.7736843172485701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of Deep Neural Networks (DNNs), they have been applied in numerous fields. However, research indicates that DNNs are susceptible to adversarial examples, and this is equally true in the multi-label domain. To further investigate multi-label adversarial examples, we introduce a novel type of attacks, termed "Showing Many Labels". The objective of this attack is to maximize the number of labels included in the classifier's prediction results. In our experiments, we select nine attack algorithms and evaluate their performance under "Showing Many Labels". Eight of the attack algorithms were adapted from the multi-class environment to the multi-label environment, while the remaining one was specifically designed for the multi-label environment. We choose ML-LIW and ML-GCN as target models and train them on four popular multi-label datasets: VOC2007, VOC2012, NUS-WIDE, and COCO. We record the success rate of each algorithm when it shows the expected number of labels in eight different scenarios. Experimental results indicate that under the "Showing Many Labels", iterative attacks perform significantly better than one-step attacks. Moreover, it is possible to show all labels in the dataset.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の急速な発展に伴い、多くの分野に応用されている。
しかし、DNNは敵対的な例に影響を受けやすいことが研究で示されており、これはマルチラベル領域でも同様に当てはまる。
本研究は,複数ラベルの敵対的事例をさらに調査するため,"Showing Many Labels"と呼ばれる新たなタイプの攻撃を導入する。
この攻撃の目的は、分類器の予測結果に含まれるラベルの数を最大化することである。
実験では,9つの攻撃アルゴリズムを選択し,その性能を"Showing Many Labels"で評価した。
攻撃アルゴリズムの8つはマルチクラス環境からマルチラベル環境に適応し、残りの1つは特にマルチラベル環境向けに設計された。
ターゲットモデルとしてML-LIWとML-GCNを選択し、VOC2007、VOC2012、NAS-WIDE、COCOの4つの一般的なマルチラベルデータセットでトレーニングする。
予測されたラベル数を8つのシナリオで示すと,各アルゴリズムの成功率を記録する。
実験の結果、"Showing Many Labels"では、反復攻撃はワンステップ攻撃よりもはるかに優れていることが示された。
さらに、データセット内のすべてのラベルを表示することもできる。
関連論文リスト
- Multi-Label Feature Selection Using Adaptive and Transformed Relevance [0.0]
本稿では,ATRと呼ばれる情報理論に基づく新しい多ラベル特徴選択手法を提案する。
ATRは、個々のラベルと抽象的なラベル空間の識別能力を考慮している。
提案実験は,広範囲な特徴空間とラベル空間を特徴とするベンチマークにおけるATRのスケーラビリティを実証するものである。
論文 参考訳(メタデータ) (2023-09-26T09:01:38Z) - Disambiguated Attention Embedding for Multi-Instance Partial-Label
Learning [68.56193228008466]
多くの実世界のタスクでは、関連するオブジェクトは、候補ラベルセットに関連付けられたマルチインスタンスバッグとして表現することができる。
既存のMIPLアプローチは、各インスタンスに拡張候補ラベルセットを割り当て、インスタンスレベルのラベルからバッグレベルのラベルを集約することで、インスタンス空間のパラダイムに従っている。
本稿では,DEMIPLという直感的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-26T13:25:17Z) - Understanding Label Bias in Single Positive Multi-Label Learning [20.09309971112425]
画像ごとの正のラベルを1つだけ使い、効果的なマルチラベルを訓練することができる。
SPMLの標準ベンチマークは、従来のマルチラベル分類データセットに由来する。
本研究では,SPMLにおけるラベルバイアス研究のプロトコルを導入し,新たな実験結果を提供する。
論文 参考訳(メタデータ) (2023-05-24T21:41:08Z) - Deep Partial Multi-Label Learning with Graph Disambiguation [27.908565535292723]
grAph-disambIguatioN (PLAIN) を用いた新しいディープ部分多重ラベルモデルを提案する。
具体的には、ラベルの信頼性を回復するために、インスタンスレベルとラベルレベルの類似性を導入する。
各トレーニングエポックでは、ラベルがインスタンスとラベルグラフに伝播し、比較的正確な擬似ラベルを生成する。
論文 参考訳(メタデータ) (2023-05-10T04:02:08Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - MultiGuard: Provably Robust Multi-label Classification against
Adversarial Examples [67.0982378001551]
MultiGuardは、マルチラベル分類に対する敵の例に対する証明可能な堅牢な防御である。
我々の主要な理論的貢献は、入力の基底真理ラベルの数が、MultiGuardによって予測されるラベルのセットで証明可能であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T17:50:57Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - Integrating Unsupervised Clustering and Label-specific Oversampling to
Tackle Imbalanced Multi-label Data [13.888344214818733]
クラスタリングは、マルチラベルデータセットの重要で局所的に接続された領域を見つけるために実行される。
クラスタ内の少数点のみが、オーバーサンプリングに使用される合成マイノリティ点を生成するために使用される。
12のマルチラベルデータセットと複数のマルチラベルアルゴリズムを用いた実験により,提案手法が良好に動作したことを示す。
論文 参考訳(メタデータ) (2021-09-25T19:00:00Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。