論文の概要: KidneyTalk-open: No-code Deployment of a Private Large Language Model with Medical Documentation-Enhanced Knowledge Database for Kidney Disease
- arxiv url: http://arxiv.org/abs/2503.04153v1
- Date: Thu, 06 Mar 2025 07:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 17:59:00.70824
- Title: KidneyTalk-open: No-code Deployment of a Private Large Language Model with Medical Documentation-Enhanced Knowledge Database for Kidney Disease
- Title(参考訳): KidneyTalk-open:医療ドキュメンテーションによるキドニー病の知識データベースによる民間大規模言語モデルの非コード展開
- Authors: Yongchao Long, Chao Yang, Gongzheng Tang, Jinwei Wang, Zhun Sui, Yuxi Zhou, Shenda Hong, Luxia Zhang,
- Abstract要約: KidneyTalk-openは、デスクトップ上で安全なドキュメント化された医療Q&Aを可能にする、最初のノーコード医療LLMシステムである。
グラフィカルなインターフェースは、臨床医が医療文書を管理し、専門知識のないAIによるコンサルティングを行うことを可能にするように設計されている。
- 参考スコア(独自算出の注目度): 15.11601309279084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy-preserving medical decision support for kidney disease requires localized deployment of large language models (LLMs) while maintaining clinical reasoning capabilities. Current solutions face three challenges: 1) Cloud-based LLMs pose data security risks; 2) Local model deployment demands technical expertise; 3) General LLMs lack mechanisms to integrate medical knowledge. Retrieval-augmented systems also struggle with medical document processing and clinical usability. We developed KidneyTalk-open, a desktop system integrating three technical components: 1) No-code deployment of state-of-the-art (SOTA) open-source LLMs (such as DeepSeek-r1, Qwen2.5) via local inference engine; 2) Medical document processing pipeline combining context-aware chunking and intelligent filtering; 3) Adaptive Retrieval and Augmentation Pipeline (AddRep) employing agents collaboration for improving the recall rate of medical documents. A graphical interface was designed to enable clinicians to manage medical documents and conduct AI-powered consultations without technical expertise. Experimental validation on 1,455 challenging nephrology exam questions demonstrates AddRep's effectiveness: achieving 29.1% accuracy (+8.1% over baseline) with intelligent knowledge integration, while maintaining robustness through 4.9% rejection rate to suppress hallucinations. Comparative case studies with the mainstream products (AnythingLLM, Chatbox, GPT4ALL) demonstrate KidneyTalk-open's superior performance in real clinical query. KidneyTalk-open represents the first no-code medical LLM system enabling secure documentation-enhanced medical Q&A on desktop. Its designs establishes a new framework for privacy-sensitive clinical AI applications. The system significantly lowers technical barriers while improving evidence traceability, enabling more medical staff or patients to use SOTA open-source LLMs conveniently.
- Abstract(参考訳): 腎疾患に対するプライバシ保存医療上の決定支援には、臨床推論能力を維持しながら、大きな言語モデル(LLM)の局所的な展開が必要である。
現在の解決策は3つの課題に直面している。
1)クラウドベースのLCMは、データセキュリティのリスクをもたらす。
2) 地域モデル展開には技術的専門知識が必要である。
3) LLM には医学的知識を統合するメカニズムが欠如している。
検索強化システムは、医療文書処理と臨床使用性にも苦慮している。
3つの技術コンポーネントを統合したデスクトップシステムであるKidneyTalk-openを開発した。
1) ローカル推論エンジンによるオープンソースLCM(DeepSeek-r1, Qwen2.5など)の非コード展開
2) コンテキスト対応チャンキングとインテリジェントフィルタリングを組み合わせた医用文書処理パイプライン
3) 医療文書のリコール率を向上させるため, エージェント協力による適応検索・拡張パイプライン(AddRep)
グラフィカルなインターフェースは、臨床医が医療文書を管理し、専門知識のないAIによるコンサルティングを行うことを可能にするように設計されている。
1,455の腎症検査に対する実験的検証では、29.1%の精度(ベースライン以上8.1%)を知的知識の統合で達成し、幻覚を抑制するために4.9%の拒絶率で堅牢性を維持している。
メインストリーム製品(AnythingLLM, Chatbox, GPT4ALL)との比較ケーススタディでは,KidneyTalk-openが実際の臨床クエリにおいて優れたパフォーマンスを示した。
KidneyTalk-openは、デスクトップ上で安全なドキュメント化された医療Q&Aを可能にする、最初のノーコード医療LLMシステムである。
そのデザインは、プライバシに敏感な臨床AIアプリケーションのための新しいフレームワークを確立する。
このシステムは、証拠トレーサビリティを改善しつつ、技術的障壁を大幅に低減し、より多くの医療スタッフや患者がSOTAオープンソースLSMを便利に使用できるようにした。
関連論文リスト
- Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - Structured Outputs Enable General-Purpose LLMs to be Medical Experts [50.02627258858336]
大規模言語モデル(LLM)は、しばしばオープンエンドの医学的問題に苦しむ。
本稿では,構造化医療推論を利用した新しいアプローチを提案する。
我々の手法は85.8のファクチュアリティスコアを達成し、微調整されたモデルを上回る。
論文 参考訳(メタデータ) (2025-03-05T05:24:55Z) - A Perspective for Adapting Generalist AI to Specialized Medical AI Applications and Their Challenges [33.20745682286796]
大規模言語モデル(LLM)の医療応用への統合は、医療業界で広く関心を集めている。
本稿では,LSMを利用した医療用AIアプリケーション構築の内的課題について論じる。
論文 参考訳(メタデータ) (2024-10-28T22:30:06Z) - Building a Chinese Medical Dialogue System: Integrating Large-scale Corpora and Novel Models [2.04367431902848]
新型コロナウイルス(COVID-19)のパンデミックは、従来の医療システムに大きな欠陥を生じさせ、オンライン医療サービスの進歩を加速させた。
既存の研究は2つの大きな課題に直面している。
まず、プライバシー上の懸念から、大規模で公開可能な、ドメイン固有の医療データセットの不足。
第二に、既存の方法には医療知識がなく、患者医師相談における専門用語や表現の理解に苦慮している。
論文 参考訳(メタデータ) (2024-09-27T00:01:32Z) - MediQ: Question-Asking LLMs and a Benchmark for Reliable Interactive Clinical Reasoning [36.400896909161006]
我々は積極的に質問を行い、より多くの情報を集め、確実に応答するシステムを開発する。
LLMの問合せ能力を評価するためのベンチマーク - MediQ を導入する。
論文 参考訳(メタデータ) (2024-06-03T01:32:52Z) - Large Language Models in the Clinic: A Comprehensive Benchmark [63.21278434331952]
診療所の大規模言語モデル(LLM)をよりよく理解するためのベンチマークであるClimateBenchを構築した。
まず、さまざまな臨床言語の生成、理解、推論タスクを含む11の既存のデータセットを収集します。
次に,現実の実践において複雑だが一般的である6つの新しいデータセットと臨床タスクを構築した。
ゼロショット設定と少数ショット設定の両方で、20個のLDMを広範囲に評価する。
論文 参考訳(メタデータ) (2024-04-25T15:51:06Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Zero-Shot Clinical Trial Patient Matching with LLMs [40.31971412825736]
大規模言語モデル(LLM)は、自動スクリーニングの有望なソリューションを提供する。
我々は,患者の診療歴を非構造的臨床テキストとして考慮し,その患者が包括的基準を満たしているかどうかを評価するLCMベースのシステムを構築した。
提案システムは,n2c2 2018コホート選択ベンチマークにおいて,最先端のスコアを達成している。
論文 参考訳(メタデータ) (2024-02-05T00:06:08Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - ChatCAD+: Towards a Universal and Reliable Interactive CAD using LLMs [48.11532667875847]
ChatCAD+は高品質な医療レポートを生成し、信頼できる医療アドバイスを提供するツールである。
信頼性レポート生成モジュールは、医療画像を解釈し、高品質な医療レポートを生成することができる。
Reliable Interactionモジュールは、信頼できる医療アドバイスを提供するために、信頼できる医療ウェブサイトからの最新の情報を活用する。
論文 参考訳(メタデータ) (2023-05-25T12:03:31Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。