論文の概要: Selection-Based Vulnerabilities: Clean-Label Backdoor Attacks in Active Learning
- arxiv url: http://arxiv.org/abs/2508.05681v1
- Date: Tue, 05 Aug 2025 15:59:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.926435
- Title: Selection-Based Vulnerabilities: Clean-Label Backdoor Attacks in Active Learning
- Title(参考訳): 選択に基づく脆弱性: アクティブラーニングにおけるクリーンラベルバックドアアタック
- Authors: Yuhan Zhi, Longtian Wang, Xiaofei Xie, Chao Shen, Qiang Hu, Xiaohong Guan,
- Abstract要約: 本稿では, 能動学習の弱点を明らかにするために, 中毒攻撃面として取得関数を利用するフレームワークであるALAを紹介する。
3つのデータセット、3つの取得機能、および2種類のクリーンラベルバックドアトリガに関する実験を行います。
その結果,低毒度でも高い成功率(最大94%)を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 30.826350316619497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning(AL), which serves as the representative label-efficient learning paradigm, has been widely applied in resource-constrained scenarios. The achievement of AL is attributed to acquisition functions, which are designed for identifying the most important data to label. Despite this success, one question remains unanswered: is AL safe? In this work, we introduce ALA, a practical and the first framework to utilize the acquisition function as the poisoning attack surface to reveal the weakness of active learning. Specifically, ALA optimizes imperceptibly poisoned inputs to exhibit high uncertainty scores, increasing their probability of being selected by acquisition functions. To evaluate ALA, we conduct extensive experiments across three datasets, three acquisition functions, and two types of clean-label backdoor triggers. Results show that our attack can achieve high success rates (up to 94%) even under low poisoning budgets (0.5%-1.0%) while preserving model utility and remaining undetectable to human annotators. Our findings remind active learning users: acquisition functions can be easily exploited, and active learning should be deployed with caution in trusted data scenarios.
- Abstract(参考訳): ラベル効率のよい学習パラダイムとして機能するアクティブラーニング(AL)は、リソース制約のあるシナリオに広く応用されている。
ALの達成は、ラベル付けする最も重要なデータを特定するために設計された、取得関数に起因している。
この成功にもかかわらず、1つの疑問は未解決のままである。
本研究では,本研究において,能動学習の弱点を明らかにするために,有毒攻撃面として取得機能を活用するための実践的かつ最初のフレームワークであるALAを紹介する。
特に、ALAは許容不能な入力を最適化し、高い不確実性スコアを示し、取得関数によって選択される確率を高める。
ALAを評価するために,3つのデータセット,3つの取得関数,および2種類のクリーンラベルバックドアトリガについて広範な実験を行った。
以上の結果から,ヒトのアノテータに検出不能なモデルユーティリティを保ちながら,低毒度(0.5%-1.0%)でも高い成功率(最大94%)を達成できることが示唆された。
収集関数は簡単に利用でき、信頼されたデータシナリオに注意してアクティブラーニングを展開すべきである。
関連論文リスト
- Breaking the SSL-AL Barrier: A Synergistic Semi-Supervised Active Learning Framework for 3D Object Detection [34.049483237480615]
従来のアクティブな学習アプローチは、データ選択の初期モデルをトレーニングするために、少量のラベル付きデータに依存しています。
本稿では,S-SSALと呼ばれるSynergistic Semi-Supervised Active Learningフレームワークを提案する。
S-SSALは全データセットでトレーニングされたモデルに匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2025-01-26T08:43:59Z) - Understanding Uncertainty-based Active Learning Under Model Mismatch [16.361254095103615]
不確実性に基づくアクティブラーニング(UAL)は、予測の不確実性に基づいて選択されたラベル付きプールから重要なサンプルのラベル(s)をクエリすることで動作する。
UALの有効性は、モデル容量と、採用されている不確実性ベースの取得機能に依存する。
論文 参考訳(メタデータ) (2024-08-24T23:37:08Z) - Active Learning for Derivative-Based Global Sensitivity Analysis with Gaussian Processes [70.66864668709677]
高価なブラックボックス関数のグローバル感度解析におけるアクティブラーニングの問題点を考察する。
関数評価は高価であるため,最も価値の高い実験資源の優先順位付けにアクティブラーニングを利用する。
本稿では,デリバティブに基づくグローバル感度測定の重要量を直接対象とする,新たな能動的学習獲得関数を提案する。
論文 参考訳(メタデータ) (2024-07-13T01:41:12Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Improving Selective Visual Question Answering by Learning from Your
Peers [74.20167944693424]
VQA(Visual Question Answering)モデルは、間違っていた場合の回答を控えるのに苦労する可能性がある。
本稿では,複数モーダル選択関数の学習におけるLearning from Your Peers (LYP) アプローチを提案する。
提案手法では,学習データの異なるサブセットに基づいて訓練されたモデルの予測を,選択的VQAモデルの最適化のターゲットとして利用する。
論文 参考訳(メタデータ) (2023-06-14T21:22:01Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Active Deep Learning on Entity Resolution by Risk Sampling [5.219701379581547]
アクティブラーニング(al)は、モデルトレーニングに有用なデータに焦点を当てた、実現可能なソリューションである。
実体解決のためのリスクサンプリング(ER)の新たなALアプローチを提案する。
ALのコアセット特性に基づいて、非一様連続性によるコアセット損失を最小限に抑える最適化モデルを理論的に導出する。
実データに対する提案手法の有効性を比較検討により実証的に検証した。
論文 参考訳(メタデータ) (2020-12-23T20:38:25Z) - Bayesian Active Learning for Wearable Stress and Affect Detection [0.7106986689736827]
デバイス上での深層学習アルゴリズムによるストレス検出は、広汎なコンピューティングの進歩により増加傾向にある。
本稿では,ベイズニューラルネットワークの近似によるモデル不確実性を表現可能なフレームワークを提案する。
提案手法は, 提案手法により, 推定時の効率を著しく向上し, 獲得したプール点数がかなり少なくなる。
論文 参考訳(メタデータ) (2020-12-04T16:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。