論文の概要: On the Computational Entanglement of Distant Features in Adversarial
Machine Learning
- arxiv url: http://arxiv.org/abs/2309.15669v4
- Date: Wed, 28 Feb 2024 04:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 18:41:36.297391
- Title: On the Computational Entanglement of Distant Features in Adversarial
Machine Learning
- Title(参考訳): 敵対的機械学習における遠方特徴の計算的絡み合いについて
- Authors: YenLung Lai, Xingbo Dong, Zhe Jin
- Abstract要約: 機械学習の敵対的な例は、一見目立たない入力摂動を伴うモデルを欺く顕著な能力のために、研究の焦点として現れてきた。
我々は,空間的分離によらず,遠方の特徴を絡めて完全な相関や反相関を示す,計算絡みという新しい概念を公表した。
計算エンタングルメントが時間拡張や特徴対に対する長さ収縮などの相対論的効果とどのように一致し、最終的にそれらの角度差と距離がゼロに向かって収束し、完全な相関関係を示すか、最大値に向かって、完全な反相関関係を示すかを示す。
- 参考スコア(独自算出の注目度): 9.976364377529254
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Adversarial examples in machine learning has emerged as a focal point of
research due to their remarkable ability to deceive models with seemingly
inconspicuous input perturbations, potentially resulting in severe
consequences. In this study, we undertake a thorough investigation into the
emergence of adversarial examples, a phenomenon that can, in principle,
manifest in a wide range of machine learning models. Through our research, we
unveil a new notion termed computational entanglement, with its ability to
entangle distant features, display perfect correlations or anti-correlations
regardless to their spatial separation, significantly contributes to the
emergence of adversarial examples. We illustrate how computational entanglement
aligns with relativistic effects such as time dilation and length contraction
to feature pair, ultimately resulting in the convergence of their angle
differences and distances towards zero, signifying perfect correlation, or
towards maximum, indicating perfect anti-correlation.
- Abstract(参考訳): 機械学習の敵対的な例は、一見不明瞭な入力摂動を伴うモデルを欺く顕著な能力から研究の焦点として現れており、深刻な結果をもたらす可能性がある。
本研究では, 機械学習モデルにおいて, 原則として, 広範囲の機械学習モデルに現れる現象である, 敵対的事例の出現について, 徹底的な調査を行う。
本研究は,空間的分離によらず,遠方特徴の絡み合い,完全相関や反相関を示す能力を備えた計算絡みという新しい概念を提示し,敵の例の出現に大きく寄与する。
計算エンタングルメントが時間拡張や特徴対に対する長さ収縮などの相対論的効果とどのように一致し、最終的にそれらの角度差と距離がゼロに向かって収束し、完全な相関関係を示すか、最大方向へ、完全反相関を示すかを示す。
関連論文リスト
- On the ISS Property of the Gradient Flow for Single Hidden-Layer Neural
Networks with Linear Activations [0.0]
本研究では,不確かさが勾配推定に及ぼす影響について検討した。
一般の過度にパラメータ化された定式化は、損失関数が最小化される集合の外側に配置されるスプリアス平衡の集合を導入することを示す。
論文 参考訳(メタデータ) (2023-05-17T02:26:34Z) - Phenomenology of Double Descent in Finite-Width Neural Networks [29.119232922018732]
二重降下(double descend)は、モデルが属する体制に依存して行動を記述する。
我々は影響関数を用いて、人口減少とその下限の適切な表現を導出する。
本分析に基づき,損失関数が二重降下に与える影響について検討した。
論文 参考訳(メタデータ) (2022-03-14T17:39:49Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Adversarial Perturbations Are Not So Weird: Entanglement of Robust and
Non-Robust Features in Neural Network Classifiers [4.511923587827301]
標準的な方法でトレーニングされたニューラルネットワークでは、ロバストでない機能は、小さな"非セマンティック"パターンに反応する。
逆の例は、これらの小さな絡み合ったパターンに対する、最小限の摂動によって形成できます。
論文 参考訳(メタデータ) (2021-02-09T20:21:31Z) - Closeness and Uncertainty Aware Adversarial Examples Detection in
Adversarial Machine Learning [0.7734726150561088]
敵のサンプルを検出するための2つの異なるメトリクス群の使用法を探索し、評価します。
敵検出のための新機能を導入し、これらの指標のパフォーマンスが使用される攻撃の強さに大きく依存していることを示します。
論文 参考訳(メタデータ) (2020-12-11T14:44:59Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。