論文の概要: Explainability and Robustness of Deep Visual Classification Models
- arxiv url: http://arxiv.org/abs/2301.01343v1
- Date: Tue, 3 Jan 2023 20:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 15:30:28.024752
- Title: Explainability and Robustness of Deep Visual Classification Models
- Title(参考訳): 深部視覚分類モデルの説明可能性とロバスト性
- Authors: Jindong Gu
- Abstract要約: コンピュータビジョンコミュニティでは、畳み込みニューラルネットワーク(CNN)が標準的な視覚分類モデルとなっている。
CNNの代替として、Capsule Networks (CapsNets) と Vision Transformers (ViTs) が提案されている。
CapsNetsはCNNよりも誘導バイアスが大きいと考えられているが、ViTsはCNNよりも誘導バイアスが少ないと考えられている。
- 参考スコア(独自算出の注目度): 14.975436239088312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the computer vision community, Convolutional Neural Networks (CNNs), first
proposed in the 1980's, have become the standard visual classification model.
Recently, as alternatives to CNNs, Capsule Networks (CapsNets) and Vision
Transformers (ViTs) have been proposed. CapsNets, which were inspired by the
information processing of the human brain, are considered to have more
inductive bias than CNNs, whereas ViTs are considered to have less inductive
bias than CNNs. All three classification models have received great attention
since they can serve as backbones for various downstream tasks. However, these
models are far from being perfect. As pointed out by the community, there are
two weaknesses in standard Deep Neural Networks (DNNs). One of the limitations
of DNNs is the lack of explainability. Even though they can achieve or surpass
human expert performance in the image classification task, the DNN-based
decisions are difficult to understand. In many real-world applications,
however, individual decisions need to be explained. The other limitation of
DNNs is adversarial vulnerability. Concretely, the small and imperceptible
perturbations of inputs can mislead DNNs. The vulnerability of deep neural
networks poses challenges to current visual classification models. The
potential threats thereof can lead to unacceptable consequences. Besides,
studying model adversarial vulnerability can lead to a better understanding of
the underlying models. Our research aims to address the two limitations of
DNNs. Specifically, we focus on deep visual classification models, especially
the core building parts of each classification model, e.g. dynamic routing in
CapsNets and self-attention module in ViTs.
- Abstract(参考訳): コンピュータビジョンコミュニティでは、1980年代に最初に提案された畳み込みニューラルネットワーク(CNN)が、標準的な視覚分類モデルとなっている。
近年,CNN の代替として Capsule Networks (CapsNets) と Vision Transformers (ViTs) が提案されている。
人間の脳の情報処理にインスパイアされたCapsNetsはCNNよりも誘導バイアスが大きいと考えられているが、ViTsはCNNよりも誘導バイアスが少ないと考えられている。
これら3つの分類モデルは、様々な下流タスクのバックボーンとして機能するため、大きな注目を集めている。
しかし、これらのモデルは完璧とは程遠い。
コミュニティが指摘しているように、標準のDeep Neural Networks(DNN)には2つの弱点がある。
DNNの制限のひとつは、説明責任の欠如だ。
画像分類タスクにおいて、人間の専門家のパフォーマンスを達成または超えることができるが、DNNに基づく決定は理解が難しい。
しかし、現実世界の多くのアプリケーションでは、個々の決定を説明する必要がある。
DNNのもう1つの制限は、敵の脆弱性である。
具体的には、入力の小さくて知覚できない摂動はDNNを誤解させる可能性がある。
ディープニューラルネットワークの脆弱性は、現在の視覚分類モデルに課題をもたらす。
その潜在的な脅威は受け入れ難い結果をもたらす可能性がある。
さらに、モデルの敵対的脆弱性の研究は、基盤となるモデルの理解を深める可能性がある。
我々の研究はDNNの2つの限界に対処することを目的としている。
具体的には,深部視覚分類モデル,特に各分類モデルのコア構築部分,例えばcapsnetsの動的ルーティングとvitsのセルフアテンションモジュールに注目した。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Are Deep Neural Networks Adequate Behavioural Models of Human Visual
Perception? [8.370048099732573]
ディープニューラルネットワーク(Deep Neural Network, DNN)は、コンピュータビジョンに革命をもたらした機械学習アルゴリズムである。
統計ツールと計算モデルとを区別することが重要であると論じる。
我々は視覚科学においてDNNを取り巻く多くの神話を排除した。
論文 参考訳(メタデータ) (2023-05-26T15:31:06Z) - Models Developed for Spiking Neural Networks [0.5801044612920815]
スパイキングニューラルネットワーク(SNN)は長い間存在しており、脳のダイナミクスを理解するために研究されてきた。
本研究では,画像分類タスクにおけるSNNの構造と性能について検討した。
比較は、これらのネットワークがより複雑な問題に対して優れた能力を示すことを示している。
論文 参考訳(メタデータ) (2022-12-08T16:18:53Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Towards Fully Interpretable Deep Neural Networks: Are We There Yet? [17.88784870849724]
Deep Neural Networks(DNN)は、人工知能(AI)システムに対するユーザの信頼を妨げるブラックボックスとして振る舞う。
本報告では,本質的な解釈可能性を持つDNNの開発手法について概説する。
論文 参考訳(メタデータ) (2021-06-24T16:37:34Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。