論文の概要: Do Deep Minds Think Alike? Selective Adversarial Attacks for
Fine-Grained Manipulation of Multiple Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2003.11816v1
- Date: Thu, 26 Mar 2020 10:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:06:51.671235
- Title: Do Deep Minds Think Alike? Selective Adversarial Attacks for
Fine-Grained Manipulation of Multiple Deep Neural Networks
- Title(参考訳): 深い心は似ているか?
複数のディープニューラルネットワークの細粒度操作に対する選択的逆攻撃
- Authors: Zain Khan, Jirong Yi, Raghu Mudumbai, Xiaodong Wu, Weiyu Xu
- Abstract要約: 同じ分類問題を解決するために割り当てられた複数の機械学習システムを考えると、これらの出力を複数の機械学習システムで操作する入力信号に対する摂動を構築することは可能か?
我々は、新しい最適化問題として「選択的騙し」の問題を定式化し、MNISTデータセットに関する一連の実験について報告する。
このことは、2つの名目上等価な機械学習システムが実際には「似たような」ものではないことを示唆し、多くの新しい応用の可能性を開くことを示唆している。
- 参考スコア(独自算出の注目度): 9.277656431533325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have demonstrated the existence of {\it adversarial examples}
targeting a single machine learning system. In this paper we ask a simple but
fundamental question of "selective fooling": given {\it multiple} machine
learning systems assigned to solve the same classification problem and taking
the same input signal, is it possible to construct a perturbation to the input
signal that manipulates the outputs of these {\it multiple} machine learning
systems {\it simultaneously} in arbitrary pre-defined ways? For example, is it
possible to selectively fool a set of "enemy" machine learning systems but does
not fool the other "friend" machine learning systems? The answer to this
question depends on the extent to which these different machine learning
systems "think alike". We formulate the problem of "selective fooling" as a
novel optimization problem, and report on a series of experiments on the MNIST
dataset. Our preliminary findings from these experiments show that it is in
fact very easy to selectively manipulate multiple MNIST classifiers
simultaneously, even when the classifiers are identical in their architectures,
training algorithms and training datasets except for random initialization
during training. This suggests that two nominally equivalent machine learning
systems do not in fact "think alike" at all, and opens the possibility for many
novel applications and deeper understandings of the working principles of deep
neural networks.
- Abstract(参考訳): 近年の研究では、単一の機械学習システムをターゲットにした逆例の存在が実証されている。
同一の分類問題を解くために割り当てられ、同じ入力信号を取る機械学習システムが与えられたとき、これらの「it多重」機械学習システムの出力を同時に操作する入力信号に対する摂動を任意の方法で構築することは可能か?
例えば、"敵"の機械学習システムを選択的に騙すことは可能ですが、他の"友達"の機械学習システムを騙すことはできませんか?
この問いに対する答えは、これらの異なる機械学習システムが「同じように考える」程度に依存する。
我々は、新しい最適化問題として「選択的不正」問題を定式化し、MNISTデータセットに関する一連の実験について報告する。
これらの実験から得られた予備的な結果から,複数のMNIST分類器を同時に選択的に操作することは,訓練中のランダム初期化以外は,分類器がアーキテクチャ,訓練アルゴリズム,訓練データセットと同一である場合でも極めて容易であることがわかった。
これは、名目上等価な2つの機械学習システムが実際には「似ている」とは考えておらず、多くの新しい応用の可能性とディープニューラルネットワークの動作原理のより深い理解を開くことを示唆している。
関連論文リスト
- Machine Unlearning using Forgetting Neural Networks [0.0]
本稿では,忘れニューラルネットワーク(FNN)を用いた機械学習の新しいアプローチを提案する。
FNNは特定の記憶層を持つニューラルネットワークで、人間の脳が忘れられたときのプロセスからインスピレーションを受けます。
MNIST手書き文字認識とファッションデータセットについて報告する。
論文 参考訳(メタデータ) (2024-10-29T02:52:26Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - From system models to class models: An in-context learning paradigm [0.0]
本稿では,1段階の予測と複数段階のシミュレーションという2つの主要な課題に対処する,システム識別のための新しいパラダイムを提案する。
動的システムのクラスを表すメタモデルを学ぶ。
一段階の予測では、GPTのようなデコーダのみのアーキテクチャを使用し、シミュレーション問題ではエンコーダ-デコーダ構造を用いる。
論文 参考訳(メタデータ) (2023-08-25T13:50:17Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - High-dimensional separability for one- and few-shot learning [58.8599521537]
この作業は、実用的な質問、人工知能(AI)エラーの修正によって進められている。
特殊な外部デバイスである修正器が開発されている。従来のAIシステムを変更することなく、迅速かつ非イテレーティブなシステム修正を提供する必要がある。
AIシステムの新しいマルチコレクタが提示され、深層畳み込みニューラルネットワークによってエラーを予測し、新しいクラスのオブジェクトを学習する例が紹介される。
論文 参考訳(メタデータ) (2021-06-28T14:58:14Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z) - Neuroevolution of Neural Network Architectures Using CoDeepNEAT and
Keras [0.0]
機械学習プロジェクトに関わる作業の大部分は、与えられた問題を解決するのに最適なタイプのアルゴリズムを定義することである。
与えられた問題に対する最適なネットワークトポロジと設定を見つけることは、ドメインの知識とテストの努力を必要とする課題です。
論文 参考訳(メタデータ) (2020-02-11T19:03:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。