論文の概要: Trustworthy Convolutional Neural Networks: A Gradient Penalized-based
Approach
- arxiv url: http://arxiv.org/abs/2009.14260v1
- Date: Tue, 29 Sep 2020 18:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 05:00:12.150876
- Title: Trustworthy Convolutional Neural Networks: A Gradient Penalized-based
Approach
- Title(参考訳): 信頼できる畳み込みニューラルネットワーク:グラデーションペナル化に基づくアプローチ
- Authors: Nicholas Halliwell, Freddy Lecue
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は一般的に画像分類に用いられる。
CNNは画像を正しく分類できるが、基礎となるサリエンシマップは多くのケースで誤っている可能性がある。
本稿では,パラメータ選択をペナライズすることで信頼度の高いCNNをトレーニングする手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) are commonly used for image
classification. Saliency methods are examples of approaches that can be used to
interpret CNNs post hoc, identifying the most relevant pixels for a prediction
following the gradients flow. Even though CNNs can correctly classify images,
the underlying saliency maps could be erroneous in many cases. This can result
in skepticism as to the validity of the model or its interpretation. We propose
a novel approach for training trustworthy CNNs by penalizing parameter choices
that result in inaccurate saliency maps generated during training. We add a
penalty term for inaccurate saliency maps produced when the predicted label is
correct, a penalty term for accurate saliency maps produced when the predicted
label is incorrect, and a regularization term penalizing overly confident
saliency maps. Experiments show increased classification performance, user
engagement, and trust.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は一般的に画像分類に用いられる。
Saliency Methodは、CNNのポストホックの解釈に使用可能なアプローチの例であり、勾配の流れに続く予測のための最も関連性の高いピクセルを識別する。
CNNは画像を正しく分類できるが、基礎となるサリエンシマップは多くのケースで誤用される可能性がある。
これはモデルの有効性や解釈に関して懐疑的になる可能性がある。
本稿では,パラメータ選択をペナライズすることで信頼度の高いCNNをトレーニングするための新しいアプローチを提案する。
予測されたラベルが正しいときに発生する不正確なサリエンシマップのペナルティ項と、予測されたラベルが正しくないときに発生する正確なサリエンシマップのペナルティ項と、過度に確実なサリエンシマップをペナルティ化する正規化項を加算する。
実験では、分類性能、ユーザエンゲージメント、信頼度が向上した。
関連論文リスト
- A matter of attitude: Focusing on positive and active gradients to boost
saliency maps [0.0]
親和性マップは畳み込みニューラルネットワーク(CNN)の最も広く使われている解釈可能性手法の1つである。
本稿では,勾配図から勾配の徴候を解くことで,階層分類問題の理解を深める方法について考察する。
論文 参考訳(メタデータ) (2023-09-22T15:00:00Z) - Editable Graph Neural Network for Node Classifications [43.39295712456175]
本稿では,アンダーライン編集可能なアンダーライングラフ (UnderlineEditable UnderlineGraph underlineNeural UnderlineNetworks (EGNN) を提案する。
EGNNは、モデル編集中にGNNの重みが凍結される基礎となるGNNを単純に縫う。
論文 参考訳(メタデータ) (2023-05-24T19:35:42Z) - Early-exit deep neural networks for distorted images: providing an
efficient edge offloading [69.43216268165402]
ディープニューラルネットワーク(DNN)のエッジオフロードは、入力の複雑さに適応することができる。
画像歪みに対する対策として,特定の歪みタイプを訓練した専門的側枝を導入する。
このアプローチはエッジ上の推定精度を高め、オフロードの決定を改善する。
論文 参考訳(メタデータ) (2021-08-20T19:52:55Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - SUREMap: Predicting Uncertainty in CNN-based Image Reconstruction Using
Stein's Unbiased Risk Estimate [51.67813146731196]
畳み込みニューラルネットワーク(CNN)は、コンピュータ画像再構成問題を解決する強力なツールとして登場した。
CNNはブラックボックスを理解するのが難しい。
この制限は、医療画像のような安全クリティカルな用途での利用にとって大きな障壁となる。
論文 参考訳(メタデータ) (2020-10-25T20:29:41Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - Adaptive Label Smoothing [1.3198689566654107]
本稿では,学習中の目的意識とラベルの平滑化を併用した新しい分類手法を提案する。
適応ラベルスムーシングを用いて訓練されたCNNが、予測に過信される可能性がはるかに低いことを示すために、ImageNetを用いた広範な結果を示す。
論文 参考訳(メタデータ) (2020-09-14T13:37:30Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。