論文の概要: Gaze-Guided Class Activation Mapping: Leveraging Human Attention for
Network Attention in Chest X-rays Classification
- arxiv url: http://arxiv.org/abs/2202.07107v1
- Date: Tue, 15 Feb 2022 00:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:49:53.077028
- Title: Gaze-Guided Class Activation Mapping: Leveraging Human Attention for
Network Attention in Chest X-rays Classification
- Title(参考訳): Gaze-Guided Class Activation Mapping:胸部X線分類におけるネットワーク注意の活用
- Authors: Hongzhi Zhu, Septimiu Salcudean, Robert Rohling
- Abstract要約: 本稿では,ネットワークアテンションの形成を直接制御するGG-CAM法について述べる。
GG-CAMは軽量(学習プロセスを制御するためのトレーニング可能なパラメータを3ドル追加)で、ほとんどの分類畳み込みニューラルネットワーク(CNN)に容易に適用可能なジェネリック拡張である。
比較実験により,GG-CAM拡張を用いた2つの標準CNNでは,分類性能が著しく向上することが示唆された。
- 参考スコア(独自算出の注目度): 3.8637285238278434
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increased availability and accuracy of eye-gaze tracking technology has
sparked attention-related research in psychology, neuroscience, and, more
recently, computer vision and artificial intelligence. The attention mechanism
in artificial neural networks is known to improve learning tasks. However, no
previous research has combined the network attention and human attention. This
paper describes a gaze-guided class activation mapping (GG-CAM) method to
directly regulate the formation of network attention based on expert
radiologists' visual attention for the chest X-ray pathology classification
problem, which remains challenging due to the complex and often nuanced
differences among images. GG-CAM is a lightweight ($3$ additional trainable
parameters for regulating the learning process) and generic extension that can
be easily applied to most classification convolutional neural networks (CNN).
GG-CAM-modified CNNs do not require human attention as an input when fully
trained. Comparative experiments suggest that two standard CNNs with the GG-CAM
extension achieve significantly greater classification performance. The median
area under the curve (AUC) metrics for ResNet50 increases from $0.721$ to
$0.776$. For EfficientNetv2 (s), the median AUC increases from $0.723$ to
$0.801$. The GG-CAM also brings better interpretability of the network that
facilitates the weakly-supervised pathology localization and analysis.
- Abstract(参考訳): 視線追跡技術の可用性と正確性が高まり、心理学、神経科学、そして最近ではコンピュータビジョンと人工知能の研究に注目が集まっている。
ニューラルネットワークの注意機構は、学習タスクを改善することが知られている。
しかし、ネットワークの注目と人間の注意を組み合わせる以前の研究は行われていない。
本稿では,胸部x線病理分類問題に対する専門放射線科医の視覚的注意に基づくネットワーク注意の形成を直接制御するための視線誘導型クラスアクティベーションマッピング(gg-cam)法について述べる。
GG-CAMは軽量(学習プロセスを制御するためのトレーニング可能なパラメータを3ドル追加)で、ほとんどの分類畳み込みニューラルネットワーク(CNN)に容易に適用可能なジェネリック拡張である。
GG-CAM修飾CNNは、完全に訓練された時に入力として人間の注意を必要としない。
比較実験により,GG-CAM拡張を用いた2つの標準CNNでは,分類性能が著しく向上することが示唆された。
曲線(AUC)におけるResNet50の平均値の中央値は0.721$から0.776$へと増加する。
EfficientNetv2 (s) の場合、中央値 AUC は 0.723$ から 0.801$ に増加する。
GG-CAMはまた、ネットワークのより優れた解釈可能性をもたらし、弱教師付き病理の局在と解析を容易にする。
関連論文リスト
- Exact Fit Attention in Node-Holistic Graph Convolutional Network for Improved EEG-Based Driver Fatigue Detection [17.4184523526021]
脳波に基づく疲労モニタリングは、関連する交通事故の発生を効果的に減少させる。
データの非ユークリッド特性のため、既存のCNNはEEG、特にチャネル相関から重要な空間情報を失う可能性がある。
本稿では,各チャネルの特徴を動的に学習するために,グラフ畳み込みを用いたノード完全性グラフ畳み込みネットワーク(NHGNet)を提案する。
論文 参考訳(メタデータ) (2025-01-25T03:46:38Z) - Gaze-directed Vision GNN for Mitigating Shortcut Learning in Medical Image [6.31072075551707]
GD-ViG(GD-ViG)と呼ばれる新しい視線指向ビジョンGNNを提案し,放射線科医の視覚パターンを専門知識として活用する。
2つの公開医療画像データセットの実験は、GD-ViGが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-06-20T07:16:41Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - CNN Attention Guidance for Improved Orthopedics Radiographic Fracture
Classification [37.07168182420638]
畳み込みニューラルネットワーク(CNN)は、骨折分類問題を解く能力により、近年、整形外科画像において大きな人気を集めている。
CNNに対する一般的な批判は、その不透明な学習と推論のプロセスであり、マシン診断とその後の臨床環境でのそのようなアルゴリズムの採用を信用することは困難である。
本稿では,人間による注意誘導によるCNNネットワークの正規化の有効性について検討する。
論文 参考訳(メタデータ) (2022-03-21T01:07:42Z) - Visual Attention Network [90.0753726786985]
本稿では,自己アテンションにおける自己適応性および長距離相関を実現するために,新しいカーネルアテンション(LKA)モジュールを提案する。
また、LKAに基づく新しいニューラルネットワーク、すなわちVisual Attention Network (VAN)を導入する。
VANは、最先端のビジョントランスフォーマーと畳み込みニューラルネットワークを、広範な実験において大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-02-20T06:35:18Z) - Stain Normalized Breast Histopathology Image Recognition using
Convolutional Neural Networks for Cancer Detection [9.826027427965354]
近年の進歩により、畳み込みニューラルネットワーク(CNN)アーキテクチャは乳がん検出のためのコンピュータ支援診断(CAD)システムの設計に利用できることが示されている。
乳腺病理像の2値分類のためのCNNモデルについて検討した。
我々は,200倍,400倍に拡大した病理像に対して,トレーニング済みのCNNネットワークを利用可能なBreaKHisデータセットで検証した。
論文 参考訳(メタデータ) (2022-01-04T03:09:40Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。