論文の概要: Integrating Eye-Gaze Data into CXR DL Approaches: A Preliminary study
- arxiv url: http://arxiv.org/abs/2302.02940v1
- Date: Mon, 6 Feb 2023 17:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 15:53:59.179132
- Title: Integrating Eye-Gaze Data into CXR DL Approaches: A Preliminary study
- Title(参考訳): 視線データをCXR DLアプローチに統合する : 予備的検討
- Authors: Andr\'e Lu\'is and Chihcheng Hsieh and Isabel Blanco Nobre and Sandra
Costa Sousa and Anderson Maciel and Catarina Moreira and Joaquim Jorge
- Abstract要約: 視線データをDLアーキテクチャに直接適用しても異常検出胸部X線では優れた予測性能が得られないことを示す。
これらの結果は文献における他の研究を支援し、人為的なデータ、例えば目視は、DLアーキテクチャーに適用される前に、より徹底的な調査が必要であることを示唆している。
- 参考スコア(独自算出の注目度): 0.3078264203938486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel multimodal DL architecture incorporating medical
images and eye-tracking data for abnormality detection in chest x-rays. Our
results show that applying eye gaze data directly into DL architectures does
not show superior predictive performance in abnormality detection chest X-rays.
These results support other works in the literature and suggest that
human-generated data, such as eye gaze, needs a more thorough investigation
before being applied to DL architectures.
- Abstract(参考訳): 本稿では,胸部x線異常検出のための医用画像と視線追跡データを組み合わせたマルチモーダルdlアーキテクチャを提案する。
以上の結果から,視線データをDLアーキテクチャに直接適用しても異常検出胸部X線では優れた予測性能が得られないことがわかった。
これらの結果は文献における他の研究を支援し、人為的なデータ、例えば目視はDLアーキテクチャーに適用される前により徹底的な調査が必要であることを示唆している。
関連論文リスト
- Enhancing Human-Computer Interaction in Chest X-ray Analysis using Vision and Language Model with Eye Gaze Patterns [7.6599164274971026]
VLM(Vision-Language Models)は、視線データとテキストプロンプトを併用することで、放射線技師の注意を喚起する。
眼球データから生成した熱マップを医療画像にオーバーレイし、放射線技師の集中した領域をハイライトする。
その結果,視線情報の挿入は胸部X線解析の精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-04-03T00:09:05Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - MDF-Net for abnormality detection by fusing X-rays with clinical data [14.347359031598813]
本研究は,患者の臨床情報が深層学習(DL)分類器の性能に及ぼす影響について検討した。
患者の臨床データと胸部X線を同時に処理できる2つの融合法からなる新しいアーキテクチャを提案する。
その結果, 患者の臨床データをDLモデルに組み込むことで, 胸部X線像の病的局在を平均精度で12%改善できることがわかった。
論文 参考訳(メタデータ) (2023-02-26T19:16:57Z) - Vision-Language Generative Model for View-Specific Chest X-ray Generation [18.347723213970696]
ViewXGenは、フロントビュー胸部X線を生成する既存のメソッドの制限を克服するように設計されている。
提案手法は, データセット内の多様な視線位置を考慮し, 特定の視線を用いた胸部X線の生成を可能にする。
論文 参考訳(メタデータ) (2023-02-23T17:13:25Z) - Follow My Eye: Using Gaze to Supervise Computer-Aided Diagnosis [54.60796004113496]
医用画像を読む放射線科医の眼球運動は,DNNベースのコンピュータ支援診断システム(CAD)を訓練するための新たな指導形態であることが実証された。
画像を読んでいるときに、放射線科医の視線を記録します。
視線情報は処理され、アテンション一貫性モジュールを介してDNNの注意を監督するために使用される。
論文 参考訳(メタデータ) (2022-04-06T08:31:05Z) - The pitfalls of using open data to develop deep learning solutions for
COVID-19 detection in chest X-rays [64.02097860085202]
深層学習モデルは、胸部X線から新型コロナウイルスを識別するために開発された。
オープンソースデータのトレーニングやテストでは,結果は異例です。
データ分析とモデル評価は、人気のあるオープンソースデータセットであるCOVIDxが実際の臨床問題を代表していないことを示している。
論文 参考訳(メタデータ) (2021-09-14T10:59:11Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。