論文の概要: Unified Chest X-ray and Radiology Report Generation Model with
Multi-view Chest X-rays
- arxiv url: http://arxiv.org/abs/2302.12172v1
- Date: Thu, 23 Feb 2023 17:13:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 14:21:22.033592
- Title: Unified Chest X-ray and Radiology Report Generation Model with
Multi-view Chest X-rays
- Title(参考訳): 多視点胸部X線を用いた統一胸部X線と放射線診断レポート生成モデル
- Authors: Hyungyung Lee, Wonjae Kim, Jin-Hwa Kim, Tackeun Kim, Jihang Kim,
Leonard Sunwoo, Edward Choi
- Abstract要約: 胸部X線とレポート生成の統一モデルであるUnixGenを提案する。
ベクトル量子化法を用いて胸部X線を離散的な視覚トークンに識別する。
所望のビューが利用できない場合には、特定のビューで胸部X線を生成する特別なトークンが有用である。
- 参考スコア(独自算出の注目度): 11.873853049819076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generated synthetic data in medical research can substitute privacy and
security-sensitive data with a large-scale curated dataset, reducing data
collection and annotation costs. As part of this effort, we propose UniXGen, a
unified chest X-ray and report generation model, with the following
contributions. First, we design a unified model for bidirectional chest X-ray
and report generation by adopting a vector quantization method to discretize
chest X-rays into discrete visual tokens and formulating both tasks as sequence
generation tasks. Second, we introduce several special tokens to generate chest
X-rays with specific views that can be useful when the desired views are
unavailable. Furthermore, UniXGen can flexibly take various inputs from single
to multiple views to take advantage of the additional findings available in
other X-ray views. We adopt an efficient transformer for computational and
memory efficiency to handle the long-range input sequence of multi-view chest
X-rays with high resolution and long paragraph reports. In extensive
experiments, we show that our unified model has a synergistic effect on both
generation tasks, as opposed to training only the task-specific models. We also
find that view-specific special tokens can distinguish between different views
and properly generate specific views even if they do not exist in the dataset,
and utilizing multi-view chest X-rays can faithfully capture the abnormal
findings in the additional X-rays. The source code is publicly available at:
https://github.com/ttumyche/UniXGen.
- Abstract(参考訳): 医学研究で生成された合成データは、プライバシとセキュリティに敏感なデータを大規模にキュレートされたデータセットに置き換え、データ収集とアノテーションのコストを削減できる。
この取り組みの一環として,統合胸部X線および報告生成モデルであるUniXGenを提案する。
まず,胸部x線を離散視覚トークンに識別するベクトル量子化法を採用し,両タスクをシーケンス生成タスクとして定式化することにより,双方向胸部x線とレポート生成のための統一モデルを設計する。
第2に,所望のビューが利用できない場合に有用な,特定のビューを持つ胸部x線を生成するための特別なトークンをいくつか紹介する。
さらに、UnixGenは単一のビューから複数のビューへの様々な入力を柔軟に受け取り、他のX線ビューで利用可能な追加の発見を利用することができる。
我々は,多視点胸部X線の長距離入力シーケンスを高分解能および長文レポートで処理するために,計算およびメモリ効率の効率的な変換器を採用する。
広範な実験により,本モデルがタスク固有モデルのみを訓練するよりも,両生成タスクに相乗効果があることが確認された。
また、ビュー固有の特別なトークンは、データセットに存在しない場合でも、異なるビューを区別し、特定のビューを適切に生成することができ、マルチビュー胸部X線を利用して、追加のX線による異常な発見を忠実に捉えることができる。
ソースコードは、https://github.com/ttumyche/UniXGenで公開されている。
関連論文リスト
- Towards Predicting Temporal Changes in a Patient's Chest X-ray Images based on Electronic Health Records [9.398163873685798]
本稿では,従来のCXRとその後の医療イベントを統合することで,将来のCXR画像を予測する新しいフレームワークであるEHRXDiffを提案する。
我々のフレームワークは、時間的変化を捉えた高品質で現実的な未来像を生成することを実証する。
これは、医療分野における患者のモニタリングと治療計画に有用な洞察を与える可能性がある。
論文 参考訳(メタデータ) (2024-09-11T04:49:44Z) - Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Evaluating the Clinical Realism of Synthetic Chest X-Rays Generated
Using Progressively Growing GANs [0.0]
胸部X線は多くの患者のワークアップに欠かせない道具である。
新たな診断ツールを開発するためには,ラベル付きデータの量を増やす必要がある。
これまでの研究は、イメージを合成してトレーニングデータを増強するクラス固有のGANを作成することで、これらの問題に対処しようとしてきた。
論文 参考訳(メタデータ) (2020-10-07T11:47:22Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。