論文の概要: Navigating Healthcare Insights: A Birds Eye View of Explainability with
Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2309.16593v1
- Date: Thu, 28 Sep 2023 16:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 13:29:17.256385
- Title: Navigating Healthcare Insights: A Birds Eye View of Explainability with
Knowledge Graphs
- Title(参考訳): ヘルスインサイトをナビゲートする - 知識グラフによる説明可能性の鳥の視点
- Authors: Satvik Garg, Shivam Parikh, Somya Garg
- Abstract要約: 知識グラフ(KGs)は、医療AI、特に薬物発見や薬学研究において注目を集めている。
この概要は、医療におけるKGの影響とその説明可能なAIモデルの開発における役割に関する最近の文献を要約する。
我々は、医療における知識注入学習を通じて、KGをより解釈しやすくすることの重要性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) are gaining prominence in Healthcare AI, especially in
drug discovery and pharmaceutical research as they provide a structured way to
integrate diverse information sources, enhancing AI system interpretability.
This interpretability is crucial in healthcare, where trust and transparency
matter, and eXplainable AI (XAI) supports decision making for healthcare
professionals. This overview summarizes recent literature on the impact of KGs
in healthcare and their role in developing explainable AI models. We cover KG
workflow, including construction, relationship extraction, reasoning, and their
applications in areas like Drug-Drug Interactions (DDI), Drug Target
Interactions (DTI), Drug Development (DD), Adverse Drug Reactions (ADR), and
bioinformatics. We emphasize the importance of making KGs more interpretable
through knowledge-infused learning in healthcare. Finally, we highlight
research challenges and provide insights for future directions.
- Abstract(参考訳): 知識グラフ(KG)は、医療AI、特に医薬品の発見や薬学研究において、多様な情報ソースを統合する構造的な方法を提供し、AIシステムの解釈可能性を高めている。
この解釈可能性は、信頼と透明性が重要な医療において不可欠であり、eXplainable AI(XAI)は医療専門家の意思決定を支援する。
この概要は、医療におけるKGの影響とその説明可能なAIモデルの開発における役割に関する最近の文献を要約する。
構築,関係抽出,推論,薬物・薬物相互作用(DDI),薬物標的相互作用(DTI),薬物開発(DD),逆薬物反応(ADR),バイオインフォマティクスなどの領域におけるKGワークフローについて紹介する。
医療における知識融合学習を通じてkgsをより解釈しやすいものにすることの重要性を強調する。
最後に,研究課題に注目し,今後の方向性について考察する。
関連論文リスト
- A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Enhancing Adverse Drug Event Detection with Multimodal Dataset: Corpus Creation and Model Development [12.258245804049114]
有害薬物イベント(ADEs)の採掘は、患者の安全性を高めるために薬物移動において重要な役割を担っている。
従来のADE検出方法は信頼性が高いが遅く、大規模な操作に容易に適応できない。
以前のADE鉱業研究は、視覚的な手がかりを見越して、テキストベースの方法論に焦点を当ててきた。
我々は、ADE関連テキスト情報を視覚支援と組み合わせたMMADE(MultiModal Adverse Drug Event)検出データセットを提案する。
論文 参考訳(メタデータ) (2024-05-24T17:58:42Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Emerging Drug Interaction Prediction Enabled by Flow-based Graph Neural
Network with Biomedical Network [69.16939798838159]
本稿では,新興医薬品の相互作用を効果的に予測できるグラフニューラルネットワーク(GNN)であるEmerGNNを提案する。
EmerGNNは、薬物ペア間の経路を抽出し、ある薬物から他の薬物へ情報を伝達し、関連する生物学的概念を経路に組み込むことで、薬物のペアワイズ表現を学習する。
全体として、EmerGNNは、新興薬物の相互作用を予測する既存のアプローチよりも精度が高く、バイオメディカルネットワーク上で最も関連性の高い情報を特定できる。
論文 参考訳(メタデータ) (2023-11-15T06:34:00Z) - The Impact of ChatGPT and LLMs on Medical Imaging Stakeholders:
Perspectives and Use Cases [9.488544611843073]
本研究では,医療画像におけるOpenAI ChatGPTなどの大規模言語モデル(LLM)の変換可能性について検討する。
本稿では,LLMと医療画像ステークホルダーのより広範なエコシステムとの複雑な相互作用を示すための分析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-11T20:39:13Z) - A Review on Knowledge Graphs for Healthcare: Resources, Applications, and Promises [52.31710895034573]
この研究は、医療知識グラフ(HKG)の最初の包括的なレビューを提供する。
HKG構築のためのパイプラインと重要なテクニックを要約し、一般的な利用方法も示す。
アプリケーションレベルでは、さまざまなヘルスドメインにわたるHKGの正常な統合を検討します。
論文 参考訳(メタデータ) (2023-06-07T21:51:56Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Scientific Language Models for Biomedical Knowledge Base Completion: An
Empirical Study [62.376800537374024]
我々は,KG の完成に向けた科学的 LM の研究を行い,生物医学的リンク予測を強化するために,その潜在知識を活用できるかどうかを探る。
LMモデルとKG埋め込みモデルを統合し,各入力例をいずれかのモデルに割り当てることを学ぶルータ法を用いて,性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-06-17T17:55:33Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。