論文の概要: Leveraging Generative AI for Clinical Evidence Summarization Needs to
Achieve Trustworthiness
- arxiv url: http://arxiv.org/abs/2311.11211v1
- Date: Sun, 19 Nov 2023 03:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 06:59:20.832718
- Title: Leveraging Generative AI for Clinical Evidence Summarization Needs to
Achieve Trustworthiness
- Title(参考訳): 生成aiを活用した臨床エビデンス要約の信頼性向上
- Authors: Gongbo Zhang, Qiao Jin, Denis Jered McInerney, Yong Chen, Fei Wang,
Curtis L. Cole, Qian Yang, Yanshan Wang, Bradley A. Malin, Mor Peleg, Byron
C. Wallace, Zhiyong Lu, Chunhua Weng, Yifan Peng
- Abstract要約: エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを目的としている。
医学的証拠の急速な成長は、明らかな情報を収集し、評価し、合成する上での課題である。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
- 参考スコア(独自算出の注目度): 48.57739568243112
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evidence-based medicine aims to improve the quality of healthcare by
empowering medical decisions and practices with the best available evidence.
The rapid growth of medical evidence, which can be obtained from various
sources, poses a challenge in collecting, appraising, and synthesizing the
evidential information. Recent advancements in generative AI, exemplified by
large language models, hold promise in facilitating the arduous task. However,
developing accountable, fair, and inclusive models remains a complicated
undertaking. In this perspective, we discuss the trustworthiness of generative
AI in the context of automated summarization of medical evidence.
- Abstract(参考訳): エビデンスベースの医療は、医療の判断と実践を最良の証拠で力づけることで、医療の質を向上させることを目指している。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
しかし、説明責任、公平、包括的モデルの開発は依然として複雑な作業である。
この観点から、医療証拠の自動要約の文脈において、生成AIの信頼性について論じる。
関連論文リスト
- Would You Trust an AI Doctor? Building Reliable Medical Predictions with Kernel Dropout Uncertainty [14.672477787408887]
小型医療データセットの信頼性を高めるため,カーネルモデルを用いたベイジアンモンテカルロ・ドロップアウトモデルを導入する。
限られたデータであっても、信頼性が大幅に向上し、AI駆動型医療予測の信頼構築に向けた有望なステップを提供します。
論文 参考訳(メタデータ) (2024-04-16T11:43:26Z) - Practical Applications of Advanced Cloud Services and Generative AI Systems in Medical Image Analysis [17.4235794108467]
本稿では、医用画像における生成AIの変換可能性について考察し、合成ACM-2データを生成する能力を強調した。
データセットのサイズと多様性の制限に対処することにより、これらのモデルはより正確な診断と患者の結果の改善に寄与する。
論文 参考訳(メタデータ) (2024-03-26T09:55:49Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Improving Medical Report Generation with Adapter Tuning and Knowledge
Enhancement in Vision-Language Foundation Models [26.146579369491718]
この研究は、一般的な大規模基盤モデルをカスタマイズするための最先端のビジョン言語事前学習および微調整アプローチBLIP-2に基づく。
ImageCLEFmedical 2023のデータセットのバリデーションでは、いくつかの最先端手法に対して、最も優れた平均結果が得られる。
論文 参考訳(メタデータ) (2023-12-07T01:01:45Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Towards Medical Artificial General Intelligence via Knowledge-Enhanced
Multimodal Pretraining [121.89793208683625]
医療人工知能(MAGI)は、1つの基礎モデルで異なる医療課題を解くことができる。
我々は、Micical-knedge-enhanced mulTimOdal pretRaining (motoR)と呼ばれる新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-26T01:26:19Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。