論文の概要: Perception Visualization: Seeing Through the Eyes of a DNN
- arxiv url: http://arxiv.org/abs/2204.09920v1
- Date: Thu, 21 Apr 2022 07:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 21:56:52.988019
- Title: Perception Visualization: Seeing Through the Eyes of a DNN
- Title(参考訳): 知覚の可視化:DNNの目を通して見る
- Authors: Loris Giulivi, Mark James Carman, Giacomo Boracchi
- Abstract要約: 我々は、Grad-CAMのような現在の説明方法と本質的に異なる、新しい説明形式を開発する。
知覚可視化は、DNNが入力画像で知覚するものの視覚的表現を提供する。
ユーザスタディの結果から,認識の可視化が可能になった場合,人間がシステムの判断をよりよく理解し,予測できることが示される。
- 参考スコア(独自算出の注目度): 5.9557391359320375
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial intelligence (AI) systems power the world we live in. Deep neural
networks (DNNs) are able to solve tasks in an ever-expanding landscape of
scenarios, but our eagerness to apply these powerful models leads us to focus
on their performance and deprioritises our ability to understand them. Current
research in the field of explainable AI tries to bridge this gap by developing
various perturbation or gradient-based explanation techniques. For images,
these techniques fail to fully capture and convey the semantic information
needed to elucidate why the model makes the predictions it does. In this work,
we develop a new form of explanation that is radically different in nature from
current explanation methods, such as Grad-CAM. Perception visualization
provides a visual representation of what the DNN perceives in the input image
by depicting what visual patterns the latent representation corresponds to.
Visualizations are obtained through a reconstruction model that inverts the
encoded features, such that the parameters and predictions of the original
models are not modified. Results of our user study demonstrate that humans can
better understand and predict the system's decisions when perception
visualizations are available, thus easing the debugging and deployment of deep
models as trusted systems.
- Abstract(参考訳): 人工知能(AI)システムが私たちの住む世界を動かします。
ディープニューラルネットワーク(dnn)は、絶えず広がるシナリオの風景の中でタスクを解決できますが、これらの強力なモデルを適用したいという願望は、パフォーマンスに集中し、それらを理解する能力を優先順位を下げることにつながります。
説明可能なAIの分野での現在の研究は、様々な摂動や勾配に基づく説明手法を開発することによって、このギャップを埋めようとしている。
画像の場合、これらのテクニックはモデルがなぜ予測を行うのかを解明するために必要となる意味情報を完全なキャプチャと伝達に失敗します。
本研究では, grad-cam のような現在の説明法とは性質的に根本的に異なる新しい説明法を開発した。
知覚の可視化は、潜在表現がどのような視覚パターンに対応するかを表現することによって、dnnが入力画像で知覚するものを視覚的に表現する。
可視化は、元のモデルのパラメータや予測が変更されないような符号化された特徴を逆転する再構成モデルによって得られる。
ユーザ調査の結果,知覚可視化が利用可能であれば,人間がシステムの判断をよりよく理解し,予測できることが示され,信頼性の高いシステムとしての深層モデルのデバッグとデプロイが容易になる。
関連論文リスト
- Fill in the blanks: Rethinking Interpretability in vision [0.0]
我々は、新しい視点から視覚モデルの説明可能性を再考し、トレーニング中にモデルが学習した一般的な入力構造を探索する。
標準的なビジョンデータセットと事前トレーニングされたモデルの実験は、一貫性のあるパターンを明らかにし、追加のモデルに依存しない説明可能性ツールとして解釈できる。
論文 参考訳(メタデータ) (2024-11-15T15:31:06Z) - Visual Analysis of Prediction Uncertainty in Neural Networks for Deep Image Synthesis [3.09988520562118]
予測に関わる品質、信頼性、堅牢性、不確実性を理解することが不可欠である。
これらの量の徹底的な理解は、アプリケーション科学者が情報的な決定を下すのに役立つ実用的な洞察を生み出します。
このコントリビューションは,DNNの予測の不確実性と感度を,様々な手法を用いて効率的に推定できることを示す。
論文 参考訳(メタデータ) (2024-05-22T20:01:31Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Neural Implicit Representations for Physical Parameter Inference from a Single Video [49.766574469284485]
本稿では,外見モデルのためのニューラル暗黙表現と,物理現象をモデル化するためのニューラル常微分方程式(ODE)を組み合わせることを提案する。
提案モデルでは,大規模なトレーニングデータセットを必要とする既存のアプローチとは対照的に,単一のビデオから物理的パラメータを識別することが可能になる。
ニューラル暗示表現を使用することで、高解像度ビデオの処理とフォトリアリスティック画像の合成が可能になる。
論文 参考訳(メタデータ) (2022-04-29T11:55:35Z) - Deep Reinforcement Learning Models Predict Visual Responses in the
Brain: A Preliminary Result [1.0323063834827415]
強化学習を用いてニューラルネットワークモデルをトレーニングし、3Dコンピュータゲームをプレイします。
これらの強化学習モデルは、初期視覚領域において、神経応答予測精度のスコアを得る。
対照的に、教師付きニューラルネットワークモデルでは、より高い視覚領域において、より優れた神経応答予測が得られる。
論文 参考訳(メタデータ) (2021-06-18T13:10:06Z) - Towards interpreting computer vision based on transformation invariant
optimization [10.820985444099536]
本研究では、ニューラルネットワークをターゲットクラスに活性化できる可視化画像を、バックプロパゲーション法により生成する。
このような手法がニューラルネットワークの洞察を得るのに役立つケースがいくつかある。
論文 参考訳(メタデータ) (2021-06-18T08:04:10Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。