論文の概要: LaFA: Latent Feature Attacks on Non-negative Matrix Factorization
- arxiv url: http://arxiv.org/abs/2408.03909v1
- Date: Wed, 7 Aug 2024 17:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 12:35:07.563184
- Title: LaFA: Latent Feature Attacks on Non-negative Matrix Factorization
- Title(参考訳): LaFA:非負行列因子化における潜在的特徴攻撃
- Authors: Minh Vu, Ben Nebgen, Erik Skau, Geigh Zollicoffer, Juan Castorena, Kim Rasmussen, Boian Alexandrov, Manish Bhattarai,
- Abstract要約: ラテント・フィーチャー・アタック(LaFA)と呼ばれるNMFにおける新しい攻撃のクラスを紹介する。
提案手法では,潜時特徴に直接特徴誤差(FE)損失を利用する。
FE攻撃におけるバックプロパゲーションからの大きなピークメモリオーバーヘッド勾配に対処するため,暗黙の微分に基づく手法を開発した。
- 参考スコア(独自算出の注目度): 3.45173496229657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning (ML) applications rapidly grow, concerns about adversarial attacks compromising their reliability have gained significant attention. One unsupervised ML method known for its resilience to such attacks is Non-negative Matrix Factorization (NMF), an algorithm that decomposes input data into lower-dimensional latent features. However, the introduction of powerful computational tools such as Pytorch enables the computation of gradients of the latent features with respect to the original data, raising concerns about NMF's reliability. Interestingly, naively deriving the adversarial loss for NMF as in the case of ML would result in the reconstruction loss, which can be shown theoretically to be an ineffective attacking objective. In this work, we introduce a novel class of attacks in NMF termed Latent Feature Attacks (LaFA), which aim to manipulate the latent features produced by the NMF process. Our method utilizes the Feature Error (FE) loss directly on the latent features. By employing FE loss, we generate perturbations in the original data that significantly affect the extracted latent features, revealing vulnerabilities akin to those found in other ML techniques. To handle large peak-memory overhead from gradient back-propagation in FE attacks, we develop a method based on implicit differentiation which enables their scaling to larger datasets. We validate NMF vulnerabilities and FE attacks effectiveness through extensive experiments on synthetic and real-world data.
- Abstract(参考訳): 機械学習(ML)アプリケーションが急速に普及するにつれて、敵攻撃に対する懸念が彼らの信頼性を損なうことが注目されている。
このような攻撃に対するレジリエンスで知られる教師なしML手法の1つは、入力データを低次元の潜在特徴に分解するアルゴリズムであるNon- negative Matrix Factorization (NMF)である。
しかし、Pytorchのような強力な計算ツールを導入することで、元のデータに対する潜在特徴の勾配の計算が可能となり、NMFの信頼性に対する懸念が高まった。
興味深いことに、MLの場合のようにNMFの逆方向の損失は、理論的には非効果的な攻撃目的であると示される再構成損失をもたらす。
本研究では,NMFプロセスが生み出す潜在機能を操作することを目的とした,LaFA(Latent Feature Attacks)と呼ばれるNMFの新たな攻撃方法を紹介する。
提案手法では,潜時特徴に直接特徴誤差(FE)損失を利用する。
FE損失を利用することで、抽出された潜在機能に大きな影響を及ぼす元のデータに摂動を生成し、他のMLテクニックに類似した脆弱性を明らかにします。
FE攻撃における勾配バックプロパゲーションからの大きなピークメモリオーバーヘッドを処理するため、より大規模なデータセットへのスケーリングを可能にする暗黙の微分に基づく手法を開発した。
我々は、NMFの脆弱性とFE攻撃の有効性を、合成および実世界のデータに関する広範な実験を通じて検証する。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping [49.66872823080736]
自己回帰型大規模言語モデル(LLaMa, GPT)は、言語理解と生成において顕著な成功を収めている。
発生時に発生する過負荷を軽減するため、いくつかの早期退避および層下降戦略が提案されている。
本稿では,入力適応型フィードフォワードスキップ戦略であるFFN-SkipLLMを提案する。
論文 参考訳(メタデータ) (2024-04-05T02:35:43Z) - Graph Regularized NMF with L20-norm for Unsupervised Feature Learning [6.894518335015327]
グラフ正規化非負行列因子化(GNMF)は、グラフ正規化制約を組み込んだNMFの拡張である。
本稿では,GNMFに基づく教師なし機能学習フレームワークを提案し,PALMに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-16T12:10:01Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - A Generative Framework for Low-Cost Result Validation of Machine Learning-as-a-Service Inference [4.478182379059458]
FidesはML-as-a-Service(ML)推論のリアルタイム整合性検証のための新しいフレームワークである。
Fidesは、統計的分析とばらつき測定を使用して、サービスモデルが攻撃を受けている場合、高い確率で識別するクライアント側攻撃検出モデルを備えている。
攻撃検出と再分類モデルの訓練のための生成的逆ネットワークフレームワークを考案した。
論文 参考訳(メタデータ) (2023-03-31T19:17:30Z) - MFAI: A Scalable Bayesian Matrix Factorization Approach to Leveraging
Auxiliary Information [8.42894516984735]
確率行列因数分解フレームワークに勾配増木木を統合して補助情報(MFAI)を活用することを提案する。
MFAIは自然に、非線形関係を柔軟にモデル化する能力など、勾配を増進した木の健全な特徴を継承する。
MFAIは、変分推論を利用して計算効率が高く、大規模なデータセットにスケーラブルである。
論文 参考訳(メタデータ) (2023-03-05T03:26:14Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Unitary Approximate Message Passing for Matrix Factorization [90.84906091118084]
行列分解 (MF) を一定の制約で考慮し, 様々な分野の応用を見いだす。
我々は,効率の良いメッセージパッシング実装であるUAMPMFを用いて,MFに対するベイズ的アプローチを開発する。
UAMPMFは、回復精度、ロバスト性、計算複雑性の観点から、最先端のアルゴリズムを著しく上回ることを示す。
論文 参考訳(メタデータ) (2022-07-31T12:09:32Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。