論文の概要: Designing a Direct Feedback Loop between Humans and Convolutional Neural
Networks through Local Explanations
- arxiv url: http://arxiv.org/abs/2307.04036v1
- Date: Sat, 8 Jul 2023 19:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 15:47:22.163501
- Title: Designing a Direct Feedback Loop between Humans and Convolutional Neural
Networks through Local Explanations
- Title(参考訳): 局所的説明による人間と畳み込みニューラルネットワーク間の直接フィードバックループの設計
- Authors: Tong Steven Sun, Yuyang Gao, Shubham Khaladkar, Sijia Liu, Liang Zhao,
Young-Ho Kim, Sungsoo Ray Hong
- Abstract要約: DeepFuseは、ユーザとCNN間の直接的なフィードバックループを実現する最初のインタラクティブデザインである。
CNN経験者12名を対象に2日間の研究を行った。
DeepFuseを使うことで、参加者は現在の最先端のモデルよりも正確で“合理的”なモデルを作りました。
- 参考スコア(独自算出の注目度): 18.729157091137793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The local explanation provides heatmaps on images to explain how
Convolutional Neural Networks (CNNs) derive their output. Due to its visual
straightforwardness, the method has been one of the most popular explainable AI
(XAI) methods for diagnosing CNNs. Through our formative study (S1), however,
we captured ML engineers' ambivalent perspective about the local explanation as
a valuable and indispensable envision in building CNNs versus the process that
exhausts them due to the heuristic nature of detecting vulnerability. Moreover,
steering the CNNs based on the vulnerability learned from the diagnosis seemed
highly challenging. To mitigate the gap, we designed DeepFuse, the first
interactive design that realizes the direct feedback loop between a user and
CNNs in diagnosing and revising CNN's vulnerability using local explanations.
DeepFuse helps CNN engineers to systemically search "unreasonable" local
explanations and annotate the new boundaries for those identified as
unreasonable in a labor-efficient manner. Next, it steers the model based on
the given annotation such that the model doesn't introduce similar mistakes. We
conducted a two-day study (S2) with 12 experienced CNN engineers. Using
DeepFuse, participants made a more accurate and "reasonable" model than the
current state-of-the-art. Also, participants found the way DeepFuse guides
case-based reasoning can practically improve their current practice. We provide
implications for design that explain how future HCI-driven design can move our
practice forward to make XAI-driven insights more actionable.
- Abstract(参考訳): 局所的な説明は、畳み込みニューラルネットワーク(CNN)がどのように出力を導出するかを説明するために、画像上のヒートマップを提供する。
その視覚的直感のため、この手法はCNNを診断するための最も一般的なAI(XAI)手法の1つである。
しかし、我々の形成的研究(s1)を通じて、局所的な説明に関するmlエンジニアの曖昧な見解を、cnnを構築する上で重要かつ不可欠であると同時に、脆弱性検出のヒューリスティックな性質によってそれらを使い果たしたプロセスに対して捉えました。
さらに診断から得られた脆弱性に基づいてCNNを操ることは非常に困難であった。
このギャップを軽減するために,ユーザとCNN間の直接フィードバックループを実現し,局所的な説明を用いてCNNの脆弱性を診断・修正する,初のインタラクティブデザインであるDeepFuseを設計した。
DeepFuseは、CNNのエンジニアが、"不合理な"ローカルな説明を体系的に検索し、労働効率のよい方法で不合理であると認識された人々に対する新しいバウンダリを注釈するのに役立つ。
次に、与えられたアノテーションに基づいてモデルを制御し、モデルが同じような間違いを起こさないようにする。
CNN経験者12名を対象に2日間の研究を行った。
DeepFuseを使うことで、参加者は現在の最先端のモデルよりも正確で“合理的”なモデルを作りました。
また、deepfuse guidesのケースベースの推論方法が、現在のプラクティスを実際的に改善できることにも気付いた。
私たちは、将来のhci駆動設計が私たちのプラクティスを前進させ、xai駆動の洞察をより効果的にするための設計に意味を与えます。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Knowledge Distillation of Convolutional Neural Networks through Feature
Map Transformation using Decision Trees [2.06682776181122]
畳み込みニューラルネットワーク(CNN)の最終層から特徴を抽出する蒸留手法を提案する。
抽出した特徴は、深さとノードの制約の下で最良の精度を達成するために決定木を訓練するために使用される。
その結果,決定木を用いたCNNによる意思決定の解釈が促進された。
論文 参考訳(メタデータ) (2024-03-10T04:20:51Z) - Global-Local Processing in Convolutional Neural Networks [9.05607520128194]
畳み込みニューラルネットワーク(CNN)は、画像処理の課題において優れたパフォーマンスを実現している。
CNNは局所的な特徴に非常に偏りがあり、入力のグローバルな側面を検知できないことが研究されている。
人間の瞳孔の無意識行動に触発された,シンプルで効果的な解法を提案する。
論文 参考訳(メタデータ) (2023-06-14T08:08:08Z) - SUNY: A Visual Interpretation Framework for Convolutional Neural Networks from a Necessary and Sufficient Perspective [23.175703929763888]
本稿では,より優れた人間の理解に向けた説明を合理化するための因果関係駆動型フレームワークSUNYを提案する。
CNNモデルの入力特徴や内部フィルタを仮説的原因として用いて、SUNYは必要な視点と十分な視点の両方について双方向の定量化による説明を生成する。
論文 参考訳(メタデータ) (2023-03-01T05:54:52Z) - Using explainability to design physics-aware CNNs for solving subsurface
inverse problems [0.0]
本稿では,物理を意識したニューラルネットワークの設計に説明可能性を用いた新しい手法を提案する。
我々は,浅層画像の逆問題を解決するために,畳み込みニューラルネットワーク(CNN)を開発することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2022-11-16T03:59:29Z) - LAP: An Attention-Based Module for Concept Based Self-Interpretation and
Knowledge Injection in Convolutional Neural Networks [2.8948274245812327]
本稿では,自己解釈性を実現するため,新しい注意型プール層であるLAP(Local Attention Pooling)を提案する。
LAPはどんな畳み込みニューラルネットワークにも簡単にプラグインできる。
LAPは一般的なホワイトボックスの説明法よりも、人間の理解しやすく忠実なモデル解釈を提供する。
論文 参考訳(メタデータ) (2022-01-27T21:10:20Z) - Deeply Explain CNN via Hierarchical Decomposition [75.01251659472584]
コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:56:04Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。