論文の概要: A Unified Bilevel Model for Adversarial Learning and A Case Study
- arxiv url: http://arxiv.org/abs/2510.25121v1
- Date: Wed, 29 Oct 2025 02:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.990179
- Title: A Unified Bilevel Model for Adversarial Learning and A Case Study
- Title(参考訳): 対人学習のための統一二段階モデルと事例研究
- Authors: Yutong Zheng, Qingna Li,
- Abstract要約: 本稿では,対人学習のための統合された二段階モデルを提案する。
クラスタリングモデルにおける敵攻撃を調査し,データの観点から解釈する。
- 参考スコア(独自算出の注目度): 1.745087906191406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial learning has been attracting more and more attention thanks to the fast development of machine learning and artificial intelligence. However, due to the complicated structure of most machine learning models, the mechanism of adversarial attacks is not well interpreted. How to measure the effect of attack is still not quite clear. In this paper, we propose a unified bilevel model for adversarial learning. We further investigate the adversarial attack in clustering models and interpret it from data perturbation point of view. We reveal that when the data perturbation is relatively small, the clustering model is robust, whereas if it is relatively large, the clustering result changes, which leads to an attack. To measure the effect of attacks for clustering models, we analyse the well-definedness of the so-called $\delta$-measure, which can be used in the proposed bilevel model for adversarial learning of clustering models.
- Abstract(参考訳): 機械学習と人工知能の急速な発展により、敵対的学習がますます注目を集めている。
しかし、ほとんどの機械学習モデルの複雑な構造のため、敵攻撃のメカニズムはよく解釈されていない。
攻撃の効果を測定する方法はまだ明らかになっていない。
本稿では,対人学習のための統合二段階モデルを提案する。
さらに,クラスタリングモデルにおける敵攻撃について検討し,データ摂動の観点から解釈する。
データ摂動が比較的小さい場合、クラスタリングモデルは堅牢であるのに対して、クラスタリングが比較的大きい場合、クラスタリングの結果が変化し、攻撃が発生する。
クラスタリングモデルに対する攻撃の効果を測定するために,クラスタリングモデルの対角学習において提案された2レベルモデルで使用可能な,いわゆる$\delta$-measureの精確な定義を解析する。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、小さな敵の摂動に対して脆弱である。
トレーニング中のロバストな特徴学習は、ロバスト性を大幅に向上させることができることを示す。
自然的特徴と敵対的特徴を整合させる多目的的手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - On the Robustness of Deep Clustering Models: Adversarial Attacks and
Defenses [14.951655356042947]
クラスタリングモデルは、多数のアプリケーションパイプラインで使用される教師なしの機械学習メソッドのクラスを構成する。
本稿では,GAN(Generative Adversarial Networks)を用いたブラックボックス攻撃を提案する。
我々は、複数の最先端のディープクラスタリングモデルと実世界のデータセットに対する攻撃を分析し、それが非常に成功したことを発見した。
論文 参考訳(メタデータ) (2022-10-04T22:32:02Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。