論文の概要: Human Attention in Fine-grained Classification
- arxiv url: http://arxiv.org/abs/2111.01628v1
- Date: Tue, 2 Nov 2021 14:41:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 14:06:21.839803
- Title: Human Attention in Fine-grained Classification
- Title(参考訳): きめ細かい分類における人間の注意
- Authors: Yao Rong, Wenjia Xu, Zeynep Akata, Enkelejda Kasneci
- Abstract要約: 我々は,人間の注意が細粒度分類などの意思決定プロセスに有用な情報を含んでいることを検証した。
我々は、人間の視線を分類モデルに統合するために、GAT(Gaze Augmentation Training)とKFN(Knowledge Fusion Network)を提案する。
- 参考スコア(独自算出の注目度): 38.71613202835921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The way humans attend to, process and classify a given image has the
potential to vastly benefit the performance of deep learning models. Exploiting
where humans are focusing can rectify models when they are deviating from
essential features for correct decisions. To validate that human attention
contains valuable information for decision-making processes such as
fine-grained classification, we compare human attention and model explanations
in discovering important features. Towards this goal, we collect human gaze
data for the fine-grained classification dataset CUB and build a dataset named
CUB-GHA (Gaze-based Human Attention). Furthermore, we propose the Gaze
Augmentation Training (GAT) and Knowledge Fusion Network (KFN) to integrate
human gaze knowledge into classification models. We implement our proposals in
CUB-GHA and the recently released medical dataset CXR-Eye of chest X-ray
images, which includes gaze data collected from a radiologist. Our result
reveals that integrating human attention knowledge benefits classification
effectively, e.g. improving the baseline by 4.38% on CXR. Hence, our work
provides not only valuable insights into understanding human attention in
fine-grained classification, but also contributes to future research in
integrating human gaze with computer vision tasks. CUB-GHA and code are
available at https://github.com/yaorong0921/CUB-GHA.
- Abstract(参考訳): 人間が特定のイメージに出席し、処理し、分類する方法は、ディープラーニングモデルのパフォーマンスに多大な利益をもたらす可能性がある。
人間が焦点を合わせている展開は、正しい決定のために不可欠な特徴から逸脱しているときにモデルを修正できる。
人間の注意が細粒度分類などの意思決定プロセスに有用な情報を含んでいることを検証するため,重要な特徴の発見において,人間の注意とモデル説明を比較した。
この目標に向けて,詳細な分類データセットCUBの人間の視線データを収集し,CUB-GHA(Gaze-based Human Attention)というデータセットを構築する。
さらに,人間の視線知識を分類モデルに統合するためのGAT(Gaze Augmentation Training)とKFN(Knowledge Fusion Network)を提案する。
我々はCUB-GHAと最近リリースされた胸部X線画像の医療データセットCXR-Eyeに,放射線医が収集した視線データを含む提案を実装した。
この結果から,CXRのベースラインを4.38%向上させるなど,人間の注意力知識の統合が効果的に分類できることがわかった。
したがって、我々の研究は人間の注意をきめ細かい分類で理解する上で貴重な洞察を提供するだけでなく、人間の視線とコンピュータビジョンのタスクを統合するための将来の研究にも貢献する。
CUB-GHAとコードはhttps://github.com/yaorong0921/CUB-GHAで入手できる。
関連論文リスト
- Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Multi-stages attention Breast cancer classification based on nonlinear
spiking neural P neurons with autapses [10.16176106140093]
ディープネットワークにおけるダウンサンプリングは、情報の損失につながる可能性がある。
本稿では,アプタプを用いたNSNPニューロンに基づく多段階アテンションアーキテクチャを提案する。
全ての倍率ケースにおいて96.32%の分類精度を達成し、最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-12-20T06:52:38Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Goal-Oriented Gaze Estimation for Zero-Shot Learning [62.52340838817908]
識別的属性の局在性を改善するために, 目標指向視線推定モジュール(GEM)を提案する。
属性記述に導かれた新しい物体を認識する視覚注意領域を得るために,実際の人間の視線位置を予測することを目的とする。
この研究は、高レベルのコンピュータビジョンタスクに人間の視線データセットと自動視線推定アルゴリズムを集めることの有望な利点を示しています。
論文 参考訳(メタデータ) (2021-03-05T02:14:57Z) - Human Activity Recognition Using Multichannel Convolutional Neural
Network [0.0]
人間の活動認識(HAR)は、単に人間の行動を知覚する機械の能力を指します。
本論文では,実用的行動から収集したデータに基づいて,人間の行動を区別できる教師付き学習法について述べる。
このモデルはUCI HARデータセットでテストされ、95.25%の分類精度が得られた。
論文 参考訳(メタデータ) (2021-01-17T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。