論文の概要: Human-in-the-Loop Interactive Report Generation for Chronic Disease Adherence
- arxiv url: http://arxiv.org/abs/2601.06364v1
- Date: Sat, 10 Jan 2026 00:19:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.775055
- Title: Human-in-the-Loop Interactive Report Generation for Chronic Disease Adherence
- Title(参考訳): 慢性疾患適応のためのヒューマン・イン・ザ・ループ・インタラクティブ・レポート生成
- Authors: Xiaotian Zhang, Jinhong Yu, Pengwei Yan, Le Jiang, Xingyi Shen, Mumo Cheng, Xiaozhong Liu,
- Abstract要約: 慢性疾患の管理には、予防可能な入院を避けるため、定期的な順守フィードバックが必要である。
手作業によるオーサリングは、臨床精度は保たれるが、スケールしない。AI生成はスケールするが、患者が直面するコンテキストにおける信頼を損なう可能性がある。
我々は、AIをデータ組織に制約し、認識ベースのレビューを通じて医師の監督を維持する、臨床医向けループインターフェースを提案する。
- 参考スコア(独自算出の注目度): 17.904419827298074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chronic disease management requires regular adherence feedback to prevent avoidable hospitalizations, yet clinicians lack time to produce personalized patient communications. Manual authoring preserves clinical accuracy but does not scale; AI generation scales but can undermine trust in patient-facing contexts. We present a clinician-in-the-loop interface that constrains AI to data organization and preserves physician oversight through recognition-based review. A single-page editor pairs AI-generated section drafts with time-aligned visualizations, enabling inline editing with visual evidence for each claim. This division of labor (AI organizes, clinician decides) targets both efficiency and accountability. In a pilot with three physicians reviewing 24 cases, AI successfully generated clinically personalized drafts matching physicians' manual authoring practice (overall mean 4.86/10 vs. 5.0/10 baseline), requiring minimal physician editing (mean 8.3\% content modification) with zero safety-critical issues, demonstrating effective automation of content generation. However, review time remained comparable to manual practice, revealing an accountability paradox: in high-stakes clinical contexts, professional responsibility requires complete verification regardless of AI accuracy. We contribute three interaction patterns for clinical AI collaboration: bounded generation with recognition-based review via chart-text pairing, automated urgency flagging that analyzes vital trends and adherence patterns with fail-safe escalation for missed critical monitoring tasks, and progressive disclosure controls that reduce cognitive load while maintaining oversight. These patterns indicate that clinical AI efficiency requires not only accurate models, but also mechanisms for selective verification that preserve accountability.
- Abstract(参考訳): 慢性疾患の管理は、予防可能な入院を避けるために定期的な順守のフィードバックを必要とするが、臨床医はパーソナライズされた患者とのコミュニケーションを作る時間がない。
手作業によるオーサリングは、臨床精度は保たれるが、スケールしない。AI生成はスケールするが、患者が直面するコンテキストにおける信頼を損なう可能性がある。
我々は、AIをデータ組織に制約し、認識ベースのレビューを通じて医師の監督を維持する、臨床医向けループインターフェースを提案する。
シングルページエディタは、AI生成されたセクションドラフトとタイムアラインな視覚化を組み合わせ、各クレームに対する視覚的エビデンスによるインライン編集を可能にする。
この部門(AIの組織化、臨床医の決定)は効率性と説明責任の両方を目標としている。
3人の医師が24件の症例をレビューするパイロットでは、AIは医師の手作業によるオーサリングの実践(すべて平均4.86/10対5.0/10ベースライン)を臨床的にパーソナライズしたドラフトを作成した。
しかし、レビュー時間は手作業に匹敵するものであり、説明責任のパラドックスが明らかにされている。
グラフテキストのペアリングによる認識に基づくレビューによるバウンドジェネレーション、重要な監視タスクの失敗回避エスカレーションによる重要なトレンドとアテンジェンスパターンを分析した自動緊急フラグ付け、監視を維持しながら認知負荷を低減するプログレッシブ開示制御の3つに、臨床AIコラボレーションのためのインタラクションパターンをコントリビュートする。
これらのパターンは、臨床AI効率が正確なモデルだけでなく、説明責任を保存するための選択的な検証機構を必要とすることを示している。
関連論文リスト
- Benchmarking Egocentric Clinical Intent Understanding Capability for Medical Multimodal Large Language Models [48.95516224614331]
MedGaze-Benchは、臨床医の視線を認知的カーソルとして活用し、手術、緊急シミュレーション、診断解釈における意図的理解を評価する最初のベンチマークである。
本ベンチマークでは,解剖学的構造の視覚的均一性,臨床における時間・因果依存性の厳格化,安全プロトコルへの暗黙の順守という3つの基本的な課題に対処する。
論文 参考訳(メタデータ) (2026-01-11T02:20:40Z) - Beyond Static Scoring: Enhancing Assessment Validity via AI-Generated Interactive Verification [0.4260312058817663]
大規模言語モデル(LLM)は、著者の行を曖昧にすることで、従来のオープンエンドアセスメントの妥当性に挑戦する。
本稿では,ルーリックに基づく自動スコアリングとAIが生成し,対象とするフォローアップ質問を組み合わせることで,評価の整合性を高める新しいHuman-AIコラボレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-14T08:13:53Z) - MIRNet: Integrating Constrained Graph-Based Reasoning with Pre-training for Diagnostic Medical Imaging [67.74482877175797]
MIRNetは、自己教師付き事前学習と制約付きグラフベースの推論を統合する新しいフレームワークである。
TongueAtlas-4Kは,22の診断ラベルを付した4,000枚の画像からなるベンチマークである。
論文 参考訳(メタデータ) (2025-11-13T06:30:41Z) - How to Evaluate Medical AI [4.23552814358972]
アルゴリズム診断(RPAD, RRAD)の相対精度とリコールについて紹介する。
RPADとRADは、AIの出力を単一の参照ではなく複数の専門家の意見と比較する。
大規模な研究によると、DeepSeek-V3のようなトップパフォーマンスモデルは、専門家のコンセンサスに匹敵する一貫性を達成している。
論文 参考訳(メタデータ) (2025-09-15T14:01:22Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Improving Clinical Documentation with AI: A Comparative Study of Sporo AI Scribe and GPT-4o mini [0.0]
Sporo HealthのAI書式はOpenAIのGPT-4o Miniに対して評価された。
結果から,スポロAIはGPT-4o Miniを一貫して上回り,リコール率,精度,F1スコア全体を達成した。
論文 参考訳(メタデータ) (2024-10-20T22:48:40Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。