論文の概要: Human-Understandable Decision Making for Visual Recognition
- arxiv url: http://arxiv.org/abs/2103.03429v1
- Date: Fri, 5 Mar 2021 02:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 20:51:48.204256
- Title: Human-Understandable Decision Making for Visual Recognition
- Title(参考訳): 視覚認識のための人間理解型意思決定
- Authors: Xiaowei Zhou, Jie Yin, Ivor Tsang and Chen Wang
- Abstract要約: モデル学習プロセスに人間の知覚の優先順位を組み込むことにより,深層ニューラルネットワークを訓練する新たなフレームワークを提案する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
- 参考スコア(独自算出の注目度): 30.30163407674527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of deep neural networks has achieved substantial success
in many tasks. However, there still exists a huge gap between the operating
mechanism of deep learning models and human-understandable decision making, so
that humans cannot fully trust the predictions made by these models. To date,
little work has been done on how to align the behaviors of deep learning models
with human perception in order to train a human-understandable model. To fill
this gap, we propose a new framework to train a deep neural network by
incorporating the prior of human perception into the model learning process.
Our proposed model mimics the process of perceiving conceptual parts from
images and assessing their relative contributions towards the final
recognition. The effectiveness of our proposed model is evaluated on two
classical visual recognition tasks. The experimental results and analysis
confirm our model is able to provide interpretable explanations for its
predictions, but also maintain competitive recognition accuracy.
- Abstract(参考訳): ディープニューラルネットワークの広範な利用は多くのタスクで大きな成功を収めている。
しかし、深層学習モデルの動作メカニズムと人間の理解可能な意思決定との間には大きなギャップがあるため、人間がこれらのモデルによる予測を完全に信頼できない。
これまで、人間の理解可能なモデルを訓練するために、深層学習モデルの行動と人間の知覚を連携させる方法についてはほとんど研究されていない。
このギャップを埋めるために,人間の知覚の先行をモデル学習プロセスに組み込むことにより,深層ニューラルネットワークを訓練するための新しい枠組みを提案する。
提案モデルは,画像から概念的部分を認識し,それらの相対的貢献度を評価する過程を模倣する。
提案モデルの有効性を2つの古典的視覚認識タスクで評価する。
実験結果と分析により,本モデルが予測の解釈可能な説明を提供すると同時に,競合認識精度も維持できることを確認した。
関連論文リスト
- Concept backpropagation: An Explainable AI approach for visualising
learned concepts in neural network models [0.0]
本稿では,ある概念を表す情報が与えられたニューラルネットワークモデルにどのように内在化されているかを分析する方法として,Emphconcept backpropagationという概念検出手法の拡張を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:21:13Z) - On Modifying a Neural Network's Perception [3.42658286826597]
本研究では,人間の定義した概念に対して,人工ニューラルネットワークが知覚しているものを修正する手法を提案する。
提案手法を異なるモデルで検証し、実行された操作がモデルによって適切に解釈されているかどうかを評価し、それらに対してどのように反応するかを解析する。
論文 参考訳(メタデータ) (2023-03-05T12:09:37Z) - Predicting long-term collective animal behavior with deep learning [67.06717327342473]
本研究は,魚種Hemigrammus rhodostomusにおける社会的相互作用の深層学習モデルを導入する。
実験結果と最先端解析モデルの結果を比較した。
我々は,ソーシャルインタラクションの機械学習モデルが,その分析モデルと直接競合できることを実証した。
論文 参考訳(メタデータ) (2023-02-14T05:25:03Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Reconciliation of Pre-trained Models and Prototypical Neural Networks in
Few-shot Named Entity Recognition [35.34238362639678]
本研究では,このようなミスマッチを経験的・理論的根拠と整合させる一線符号正規化法を提案する。
我々の研究は、数発のエンティティ認識における一般的な問題に対処するための分析的な視点も提供します。
論文 参考訳(メタデータ) (2022-11-07T02:33:45Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Multi-Semantic Image Recognition Model and Evaluating Index for
explaining the deep learning models [31.387124252490377]
まず,ニューラルネットワークの意思決定過程を人間に理解させるマルチセマンティック画像認識モデルを提案する。
次に、モデルの解釈可能性について定量的に評価できる新しい評価指標を示す。
本稿では,現在最先端のディープラーニングモデルを用いて,関連するベースライン性能を示す。
論文 参考訳(メタデータ) (2021-09-28T07:18:05Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Deep Reinforcement Learning Models Predict Visual Responses in the
Brain: A Preliminary Result [1.0323063834827415]
強化学習を用いてニューラルネットワークモデルをトレーニングし、3Dコンピュータゲームをプレイします。
これらの強化学習モデルは、初期視覚領域において、神経応答予測精度のスコアを得る。
対照的に、教師付きニューラルネットワークモデルでは、より高い視覚領域において、より優れた神経応答予測が得られる。
論文 参考訳(メタデータ) (2021-06-18T13:10:06Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。