論文の概要: Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data
- arxiv url: http://arxiv.org/abs/2112.01034v1
- Date: Thu, 2 Dec 2021 07:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:48:19.890799
- Title: Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data
- Title(参考訳): 限られたトレーニングデータを用いた医用画像解析のための人間選択注意の活用
- Authors: Yifei Huang and Xiaoxiao Li and Lijin Yang and Lin Gu and Yingying Zhu
and Hirofumi Seo and Qiuming Meng and Tatsuya Harada and Yoichi Sato
- Abstract要約: 選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
- 参考スコア(独自算出の注目度): 72.1187887376849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The human gaze is a cost-efficient physiological data that reveals human
underlying attentional patterns. The selective attention mechanism helps the
cognition system focus on task-relevant visual clues by ignoring the presence
of distractors. Thanks to this ability, human beings can efficiently learn from
a very limited number of training samples. Inspired by this mechanism, we aim
to leverage gaze for medical image analysis tasks with small training data. Our
proposed framework includes a backbone encoder and a Selective Attention
Network (SAN) that simulates the underlying attention. The SAN implicitly
encodes information such as suspicious regions that is relevant to the medical
diagnose tasks by estimating the actual human gaze. Then we design a novel
Auxiliary Attention Block (AAB) to allow information from SAN to be utilized by
the backbone encoder to focus on selective areas. Specifically, this block uses
a modified version of a multi-head attention layer to simulate the human visual
search procedure. Note that the SAN and AAB can be plugged into different
backbones, and the framework can be used for multiple medical image analysis
tasks when equipped with task-specific heads. Our method is demonstrated to
achieve superior performance on both 3D tumor segmentation and 2D chest X-ray
classification tasks. We also show that the estimated gaze probability map of
the SAN is consistent with an actual gaze fixation map obtained by
board-certified doctors.
- Abstract(参考訳): 人間の視線は、人間の注意のパターンを明らかにする、費用対効果の高い生理学的データである。
選択的注意機構は、注意の注意をそらすことで、認知システムがタスクに関連する視覚的な手がかりに集中するのに役立つ。
この能力のおかげで、人間は限られた数のトレーニングサンプルから効率的に学習することができる。
このメカニズムに着想を得て,小さなトレーニングデータを用いた医療画像解析タスクの視線利用を目指す。
提案するフレームワークには,バックボーンエンコーダと,基礎となる注意をシミュレートする選択的注意ネットワーク(san)が含まれている。
SANは、実際の人間の視線を推定することにより、医療診断タスクに関連する疑わしい領域などの情報を暗黙的に符号化する。
次に、SANからの情報をバックボーンエンコーダによって利用し、選択領域にフォーカスできるように、新しい補助注意ブロック(AAB)を設計する。
具体的には、このブロックは人間の視覚探索手順をシミュレートするためにマルチヘッドアテンション層の修正版を使用する。
SANとABは異なるバックボーンに差し込むことができ、このフレームワークはタスク固有のヘッドを備える際に複数の医療画像解析タスクに使用できる。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
また,SANの視線確率マップは,検診医によって得られた実際の視線固定マップと一致していることを示す。
関連論文リスト
- Joint chest X-ray diagnosis and clinical visual attention prediction with multi-stage cooperative learning: enhancing interpretability [2.64700310378485]
胸部X線検査における関節疾患診断のための新しい深層学習フレームワークと対応する視力マップの予測について紹介する。
具体的には、DenseNet201バックボーンとResidualおよびSqueeze-and-Excitationブロックベースのエンコーダの両方を活用する、新しいデュアルエンコーダマルチタスクUNetを設計した。
実験の結果,提案手法は胸部X線診断や視力マップの精度に優れていた。
論文 参考訳(メタデータ) (2024-03-25T17:31:12Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Exploiting the Brain's Network Structure for Automatic Identification of
ADHD Subjects [70.37277191524755]
我々は脳を機能的ネットワークとしてモデル化できることを示し,ADHD被験者と制御対象とではネットワークの特定の特性が異なることを示した。
776名の被験者で分類器を訓練し,ADHD-200チャレンジのために神経局が提供する171名の被験者を対象に試験を行った。
論文 参考訳(メタデータ) (2023-06-15T16:22:57Z) - DrasCLR: A Self-supervised Framework of Learning Disease-related and
Anatomy-specific Representation for 3D Medical Images [23.354686734545176]
3次元医用イメージングのための新しいSSLフレームワークDrasCLRを提案する。
本研究では, 局所解剖学的領域内の微妙な疾患パターンを捉えることを目的としており, 大規模領域にまたがる深刻な疾患パターンを表現することを目的としている。
論文 参考訳(メタデータ) (2023-02-21T01:32:27Z) - Follow My Eye: Using Gaze to Supervise Computer-Aided Diagnosis [54.60796004113496]
医用画像を読む放射線科医の眼球運動は,DNNベースのコンピュータ支援診断システム(CAD)を訓練するための新たな指導形態であることが実証された。
画像を読んでいるときに、放射線科医の視線を記録します。
視線情報は処理され、アテンション一貫性モジュールを介してDNNの注意を監督するために使用される。
論文 参考訳(メタデータ) (2022-04-06T08:31:05Z) - Multi-task UNet: Jointly Boosting Saliency Prediction and Disease
Classification on Chest X-ray Images [3.8637285238278434]
本稿では,胸部X線(CXR)画像のビジュアル・サリエンシ予測のための新しい深層学習モデルについて述べる。
データ不足に対処するため,マルチタスク学習手法を応用し,同時にCXRの疾患分類に取り組む。
提案したディープラーニングモデルと新しい学習手法を併用した実験により,サリエンシ予測や画像分類のための既存手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-02-15T01:12:42Z) - Human Attention in Fine-grained Classification [38.71613202835921]
我々は,人間の注意が細粒度分類などの意思決定プロセスに有用な情報を含んでいることを検証した。
我々は、人間の視線を分類モデルに統合するために、GAT(Gaze Augmentation Training)とKFN(Knowledge Fusion Network)を提案する。
論文 参考訳(メタデータ) (2021-11-02T14:41:11Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Cross-Task Representation Learning for Anatomical Landmark Detection [20.079451546446712]
本稿では,クロスタスク表現学習を通じて,ソースとターゲットタスク間の知識伝達を規則化することを提案する。
本手法は胎児アルコール症候群の診断を容易にする顔の解剖学的特徴を抽出するためのものである。
本稿では,目的モデル上の最終モデルの特徴と中間モデルの特徴を制約することにより,表現学習のための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-28T21:22:49Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。