論文の概要: Multi-Semantic Image Recognition Model and Evaluating Index for
explaining the deep learning models
- arxiv url: http://arxiv.org/abs/2109.13531v1
- Date: Tue, 28 Sep 2021 07:18:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:59:51.671375
- Title: Multi-Semantic Image Recognition Model and Evaluating Index for
explaining the deep learning models
- Title(参考訳): 深層学習モデル記述のためのマルチシーケンス画像認識モデルと評価指標
- Authors: Qianmengke Zhao, Ye Wang, Qun Liu
- Abstract要約: まず,ニューラルネットワークの意思決定過程を人間に理解させるマルチセマンティック画像認識モデルを提案する。
次に、モデルの解釈可能性について定量的に評価できる新しい評価指標を示す。
本稿では,現在最先端のディープラーニングモデルを用いて,関連するベースライン性能を示す。
- 参考スコア(独自算出の注目度): 31.387124252490377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although deep learning models are powerful among various applications, most
deep learning models are still a black box, lacking verifiability and
interpretability, which means the decision-making process that human beings
cannot understand. Therefore, how to evaluate deep neural networks with
explanations is still an urgent task. In this paper, we first propose a
multi-semantic image recognition model, which enables human beings to
understand the decision-making process of the neural network. Then, we presents
a new evaluation index, which can quantitatively assess the model
interpretability. We also comprehensively summarize the semantic information
that affects the image classification results in the judgment process of neural
networks. Finally, this paper also exhibits the relevant baseline performance
with current state-of-the-art deep learning models.
- Abstract(参考訳): ディープラーニングモデルは様々なアプリケーションの中で強力だが、ほとんどのディープラーニングモデルは依然としてブラックボックスであり、検証性と解釈性に欠けており、人間には理解できない意思決定プロセスである。
したがって、深いニューラルネットワークを説明で評価する方法はまだ緊急課題である。
本稿では,まず,ニューラルネットワークの意思決定過程を人間が理解できるようにするマルチセマンティクス画像認識モデルを提案する。
次に,モデルの解釈可能性について定量的に評価できる新しい評価指標を提案する。
また,ニューラルネットワークの判断過程において,画像分類結果に影響を及ぼす意味情報を包括的に要約する。
最後に,現在最先端のディープラーニングモデルを用いて,関連するベースライン性能を示す。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Image classification network enhancement methods based on knowledge
injection [8.885876832491917]
本稿では,多段階階層型ディープラーニングアルゴリズムを提案する。
マルチレベルの階層型ディープラーニングアーキテクチャと、マルチレベルの階層型ディープラーニングフレームワークで構成されている。
実験の結果,提案アルゴリズムはニューラルネットワークの隠れた情報を効果的に説明できることがわかった。
論文 参考訳(メタデータ) (2024-01-09T09:11:41Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - On Modifying a Neural Network's Perception [3.42658286826597]
本研究では,人間の定義した概念に対して,人工ニューラルネットワークが知覚しているものを修正する手法を提案する。
提案手法を異なるモデルで検証し、実行された操作がモデルによって適切に解釈されているかどうかを評価し、それらに対してどのように反応するかを解析する。
論文 参考訳(メタデータ) (2023-03-05T12:09:37Z) - Improving a neural network model by explanation-guided training for
glioma classification based on MRI data [0.0]
解釈可能性の手法は、ディープラーニングモデルの意思決定プロセスに関する洞察を得るための一般的な方法となっている。
本稿では,LRP(Layer-wise Relevance propagation)技術を用いた説明誘導学習手法を提案する。
我々は,低次・高次グリオーマ分類問題に対する畳み込みニューラルネットワーク(CNN)モデルについて実験的に検証した。
論文 参考訳(メタデータ) (2021-07-05T13:27:28Z) - Human-Understandable Decision Making for Visual Recognition [30.30163407674527]
モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
論文 参考訳(メタデータ) (2021-03-05T02:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。