論文の概要: Towards Explaining Adversarial Examples Phenomenon in Artificial Neural
Networks
- arxiv url: http://arxiv.org/abs/2107.10599v1
- Date: Thu, 22 Jul 2021 11:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 16:15:21.125949
- Title: Towards Explaining Adversarial Examples Phenomenon in Artificial Neural
Networks
- Title(参考訳): ニューラルネットワークにおける逆例の解説に向けて
- Authors: Ramin Barati, Reza Safabakhsh, Mohammad Rahmati
- Abstract要約: コンバージェンスの観点から,敵対的事例の存在と敵対的訓練について検討した。
ANNにおける点収束がこれらの観測を説明できる証拠を提供する。
- 参考スコア(独自算出の注目度): 8.31483061185317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the adversarial examples existence and adversarial
training from the standpoint of convergence and provide evidence that pointwise
convergence in ANNs can explain these observations. The main contribution of
our proposal is that it relates the objective of the evasion attacks and
adversarial training with concepts already defined in learning theory. Also, we
extend and unify some of the other proposals in the literature and provide
alternative explanations on the observations made in those proposals. Through
different experiments, we demonstrate that the framework is valuable in the
study of the phenomenon and is applicable to real-world problems.
- Abstract(参考訳): 本稿では,収束の観点からの対向例の存在と対向訓練について検討し,annにおける点収束がこれらの観察を説明できることを示す。
本提案の主な貢献は, 学習理論ですでに定義されている概念を用いて, 回避攻撃と対人訓練の目的を関連づけることである。
また、文献中の他の提案のいくつかを拡張し、統一し、これらの提案でなされた観察について代替的な説明を提供する。
異なる実験を通じて,この枠組みが現象の研究に有用であり,実世界問題に適用できることを示す。
関連論文リスト
- Discovering emergent connections in quantum physics research via dynamic word embeddings [0.562479170374811]
概念結合予測のための動的単語埋め込みに基づく新しい手法を提案する。
知識グラフとは異なり,本手法は概念間の暗黙の関係を捉え,教師なしの方法で学習し,より広い範囲の情報を符号化する。
この表現は、科学文献における概念的関係をモデル化するための、より柔軟で情報的な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-11-10T19:45:59Z) - Adversarial Training: A Survey [130.89534734092388]
相手トレーニング(英語: Adversarial Training、AT)とは、相手の例をトレーニングプロセスに統合することである。
近年の研究では、様々な敵攻撃に対するディープニューラルネットワークの堅牢性向上におけるATの有効性が実証されている。
論文 参考訳(メタデータ) (2024-10-19T08:57:35Z) - On the Role of Entity and Event Level Conceptualization in Generalizable Reasoning: A Survey of Tasks, Methods, Applications, and Future Directions [46.63556358247516]
エンティティとイベントレベルの概念化は、一般化可能な推論において重要な役割を果たす。
現在、概念化の定義、実行、適用に関する既存の研究を包括的に調べる体系的な概要が欠如している。
本稿では,150以上の論文を総合的に調査し,概念化に関連する様々な定義,資源,方法,下流のアプリケーションを統一分類に分類する。
論文 参考訳(メタデータ) (2024-06-16T10:32:41Z) - Class-wise Activation Unravelling the Engima of Deep Double Descent [0.0]
二重降下は、機械学習領域内の反直観的な側面を示す。
本研究では,二重降下現象を再考し,その発生状況について考察した。
論文 参考訳(メタデータ) (2024-05-13T12:07:48Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - On the Connections between Counterfactual Explanations and Adversarial
Examples [14.494463243702908]
本研究は, 対実的説明と敵対的事例との間の関係を定式化するための最初の試みである。
本分析は,いくつかの反事実的説明法と逆例生成法が等価であることを示す。
人工および実世界のデータセットを用いた広範囲な実験により理論的知見を実証的に検証した。
論文 参考訳(メタデータ) (2021-06-18T08:22:24Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - Advocating for Multiple Defense Strategies against Adversarial Examples [66.90877224665168]
ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
論文 参考訳(メタデータ) (2020-12-04T14:42:46Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。