論文の概要: ReXplain: Translating Radiology into Patient-Friendly Video Reports
- arxiv url: http://arxiv.org/abs/2410.00441v1
- Date: Tue, 1 Oct 2024 06:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 05:36:46.223290
- Title: ReXplain: Translating Radiology into Patient-Friendly Video Reports
- Title(参考訳): ReXplain: 患者フレンドリーなビデオレポートに放射線学を翻訳する
- Authors: Luyang Luo, Jenanan Vairavamurthy, Xiaoman Zhang, Abhinav Kumar, Ramon R. Ter-Oganesyan, Stuart T. Schroff, Dan Shilo, Rydhwana Hossain, Mike Moritz, Pranav Rajpurkar,
- Abstract要約: ReXplainは、患者フレンドリーな画像レポートを生成するAI駆動のシステムである。
5人の放射線学者による概念実証研究は、ReXplainが正確な放射線情報を提供できることを示唆している。
- 参考スコア(独自算出の注目度): 5.787653511498558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radiology reports often remain incomprehensible to patients, undermining patient-centered care. We present ReXplain (Radiology eXplanation), an innovative AI-driven system that generates patient-friendly video reports for radiology findings. ReXplain uniquely integrates a large language model for text simplification, an image segmentation model for anatomical region identification, and an avatar generation tool, producing comprehensive explanations with plain language, highlighted imagery, and 3D organ renderings. Our proof-of-concept study with five board-certified radiologists indicates that ReXplain could accurately deliver radiological information and effectively simulate one-on-one consultations. This work demonstrates a new paradigm in AI-assisted medical communication, potentially improving patient engagement and satisfaction in radiology care, and opens new avenues for research in multimodal medical communication.
- Abstract(参考訳): 放射線学の報告は患者にとって理解不能であり、患者中心のケアを損なうことが多い。
ReXplain (Radiology eXplanation) は, 患者に親しみやすい画像レポートを生成する, 革新的なAI駆動システムである。
ReXplainは、テキスト単純化のための大きな言語モデル、解剖学的領域識別のためのイメージセグメンテーションモデル、およびアバター生成ツールを独自に統合し、平易な言語による包括的な説明、強調画像、および3D臓器レンダリングを生成する。
5人の放射線学者による概念実証研究は、ReXplainが正確な放射線情報を提供し、1対1の相談を効果的にシミュレートできることを示唆している。
この研究は、AI支援医療コミュニケーションにおける新しいパラダイムを示し、放射線治療における患者のエンゲージメントと満足度を改善し、マルチモーダル医療コミュニケーションの研究のための新たな道を開く。
関連論文リスト
- Designing a Robust Radiology Report Generation System [1.0878040851637998]
本稿では,異なるモジュールを統合し,ベストプラクティスを強調することで,ロバストな放射線学レポート生成システムの設計について概説する。
これらのベストプラクティスは、自動放射線学レポート生成の改善、意思決定における放射線科医の増員、診断ワークフローの迅速化につながると信じている。
論文 参考訳(メタデータ) (2024-11-02T06:38:04Z) - D-Rax: Domain-specific Radiologic assistant leveraging multi-modal data and eXpert model predictions [8.50767187405446]
ドメイン固有の対話型無線支援ツールD-Raxを提案する。
我々は胸部X線(CXR)画像の会話解析を強化し,放射線学的報告を支援する。
オープン・エンド・会話とクローズド・会話の双方において,反応の統計的に有意な改善が認められた。
論文 参考訳(メタデータ) (2024-07-02T18:43:10Z) - Two-Pronged Human Evaluation of ChatGPT Self-Correction in Radiology Report Simplification [5.059120569845976]
本研究では,これらの単純化を自動生成する大規模言語モデルの適合性について検討する。
筆者らは, 簡易化の事実的正当性を検証するため, 放射線科医とレイパーを用いた新しい評価手法を提案する。
実験により, 高品質な簡易化を実現するための自己補正の有効性が示された。
論文 参考訳(メタデータ) (2024-06-27T03:05:35Z) - Are Generative AI systems Capable of Supporting Information Needs of
Patients? [4.485098382568721]
本研究は, 画像診断における患者情報への責任を負うことなく, 生成的視覚質問応答システムの有効性について検討する。
胸部CT検査を施行し, 胸部CT検査を施行し, 胸部CT検査を施行し, 胸部CT検査を施行した。
参加者と医療専門家の会話のテーマ分析を用いて,対話を通して一般的に発生するテーマを特定した。
我々は,放射線技師の反応に対して,最先端の2つの生成的視覚言語モデルを評価する。
論文 参考訳(メタデータ) (2024-01-31T23:24:37Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。