論文の概要: ReXplain: Translating Radiology into Patient-Friendly Video Reports
- arxiv url: http://arxiv.org/abs/2410.00441v2
- Date: Tue, 17 Dec 2024 22:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:32.750704
- Title: ReXplain: Translating Radiology into Patient-Friendly Video Reports
- Title(参考訳): ReXplain: 患者フレンドリーなビデオレポートに放射線学を翻訳する
- Authors: Luyang Luo, Jenanan Vairavamurthy, Xiaoman Zhang, Abhinav Kumar, Ramon R. Ter-Oganesyan, Stuart T. Schroff, Dan Shilo, Rydhwana Hossain, Mike Moritz, Pranav Rajpurkar,
- Abstract要約: ReXplainは、放射線医学の知見を患者フレンドリーなビデオレポートに変換する革新的なAI駆動システムである。
ReXplainは、平易な言語、強調画像、および3D臓器レンダリングで包括的な説明を生成することができる。
- 参考スコア(独自算出の注目度): 5.787653511498558
- License:
- Abstract: Radiology reports, designed for efficient communication between medical experts, often remain incomprehensible to patients. This inaccessibility could potentially lead to anxiety, decreased engagement in treatment decisions, and poorer health outcomes, undermining patient-centered care. We present ReXplain (Radiology eXplanation), an innovative AI-driven system that translates radiology findings into patient-friendly video reports. ReXplain uniquely integrates a large language model for medical text simplification and text-anatomy association, an image segmentation model for anatomical region identification, and an avatar generation tool for engaging interface visualization. ReXplain enables producing comprehensive explanations with plain language, highlighted imagery, and 3D organ renderings in the form of video reports. To evaluate the utility of ReXplain-generated explanations, we conducted two rounds of user feedback collection from six board-certified radiologists. The results of this proof-of-concept study indicate that ReXplain could accurately deliver radiological information and effectively simulate one-on-one consultation, shedding light on enhancing patient-centered radiology with potential clinical usage. This work demonstrates a new paradigm in AI-assisted medical communication, potentially improving patient engagement and satisfaction in radiology care, and opens new avenues for research in multimodal medical communication.
- Abstract(参考訳): 医療専門家間の効率的なコミュニケーションのために設計された放射線医学報告は、患者には理解できないことが多い。
このアクセシビリティーの欠如は、不安、治療決定への関与の減少、健康状態の悪化を招き、患者中心のケアを損なう可能性がある。
ReXplain(Radiology eXplanation)は,放射線学の知見を患者に優しいビデオレポートに変換する,革新的なAI駆動システムである。
ReXplainは、医学的テキストの単純化とテキスト解剖学アソシエーションのための大きな言語モデル、解剖学的領域識別のためのイメージセグメンテーションモデル、そしてインターフェイスの可視化を行うためのアバター生成ツールを独自に統合している。
ReXplainは、ビデオレポートの形式で、平易な言語、強調画像、および3D臓器レンダリングで包括的な説明を生成することができる。
ReXplainによる説明の有用性を評価するため,6名の放射線技師から2ラウンドのユーザフィードバック収集を行った。
この概念実証研究の結果は、ReXplainが放射線学的情報を正確に提供し、1対1の相談を効果的にシミュレートできることを示し、患者中心の放射線学の強化と臨床応用の可能性に光を当てた。
この研究は、AI支援医療コミュニケーションにおける新しいパラダイムを示し、放射線治療における患者のエンゲージメントと満足度を改善し、マルチモーダル医療コミュニケーションの研究のための新たな道を開く。
関連論文リスト
- Designing a Robust Radiology Report Generation System [1.0878040851637998]
本稿では,異なるモジュールを統合し,ベストプラクティスを強調することで,ロバストな放射線学レポート生成システムの設計について概説する。
これらのベストプラクティスは、自動放射線学レポート生成の改善、意思決定における放射線科医の増員、診断ワークフローの迅速化につながると信じている。
論文 参考訳(メタデータ) (2024-11-02T06:38:04Z) - D-Rax: Domain-specific Radiologic assistant leveraging multi-modal data and eXpert model predictions [8.50767187405446]
ドメイン固有の対話型無線支援ツールD-Raxを提案する。
我々は胸部X線(CXR)画像の会話解析を強化し,放射線学的報告を支援する。
オープン・エンド・会話とクローズド・会話の双方において,反応の統計的に有意な改善が認められた。
論文 参考訳(メタデータ) (2024-07-02T18:43:10Z) - Two-Pronged Human Evaluation of ChatGPT Self-Correction in Radiology Report Simplification [5.059120569845976]
本研究では,これらの単純化を自動生成する大規模言語モデルの適合性について検討する。
筆者らは, 簡易化の事実的正当性を検証するため, 放射線科医とレイパーを用いた新しい評価手法を提案する。
実験により, 高品質な簡易化を実現するための自己補正の有効性が示された。
論文 参考訳(メタデータ) (2024-06-27T03:05:35Z) - Are Generative AI systems Capable of Supporting Information Needs of
Patients? [4.485098382568721]
本研究は, 画像診断における患者情報への責任を負うことなく, 生成的視覚質問応答システムの有効性について検討する。
胸部CT検査を施行し, 胸部CT検査を施行し, 胸部CT検査を施行し, 胸部CT検査を施行した。
参加者と医療専門家の会話のテーマ分析を用いて,対話を通して一般的に発生するテーマを特定した。
我々は,放射線技師の反応に対して,最先端の2つの生成的視覚言語モデルを評価する。
論文 参考訳(メタデータ) (2024-01-31T23:24:37Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。