論文の概要: ExperienceWeaver: Optimizing Small-sample Experience Learning for LLM-based Clinical Text Improvement
- arxiv url: http://arxiv.org/abs/2602.00740v1
- Date: Sat, 31 Jan 2026 14:12:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.365584
- Title: ExperienceWeaver: Optimizing Small-sample Experience Learning for LLM-based Clinical Text Improvement
- Title(参考訳): ExperienceWeaver: LLMベースの臨床テキスト改善のための小さなサンプル体験学習の最適化
- Authors: Ziyan Xiao, Yinghao Zhu, Liang Peng, Lequan Yu,
- Abstract要約: ExperienceWeaverは、データ検索から経験学習へと焦点を移す階層的なフレームワークである。
ノイズの多い多次元フィードバックを構造化された実行可能な知識に蒸留する。
パフォーマンスを継続的に改善し、Gemini-3 Proのような最先端のモデルを小さなサンプル設定で上回っている。
- 参考スコア(独自算出の注目度): 39.182533848097634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinical text improvement is vital for healthcare efficiency but remains difficult due to limited high-quality data and the complex constraints of medical documentation. While Large Language Models (LLMs) show promise, current approaches struggle in small-sample settings: supervised fine-tuning is data-intensive and costly, while retrieval-augmented generation often provides superficial corrections without capturing the reasoning behind revisions. To address these limitations, we propose ExperienceWeaver, a hierarchical framework that shifts the focus from data retrieval to experience learning. Instead of simply recalling past examples, ExperienceWeaver distills noisy, multi-dimensional feedback into structured, actionable knowledge. Specifically, error-specific Tips and high-level Strategies. By injecting this distilled experience into an agentic pipeline, the model learns "how to revise" rather than just "what to revise". Extensive evaluations across four clinical datasets demonstrate that ExperienceWeaver consistently improves performance, surpassing state-of-the-art models such as Gemini-3 Pro in small-sample settings.
- Abstract(参考訳): 臨床テキストの改善は医療の効率化に不可欠であるが、高品質なデータと医療文書の複雑な制約のために依然として困難である。
大きな言語モデル(LLM)は有望であるが、現在のアプローチでは小さなサンプル設定で苦労している。
これらの制限に対処するために、データ検索から経験学習へ焦点を移す階層的なフレームワークであるExperienceWeaverを提案する。
過去の例を単に思い出す代わりに、ExperienceWeaverは、ノイズの多い多次元フィードバックを構造化された実行可能な知識に蒸留する。
具体的には、エラー固有のTipと高レベルストラテジーです。
この蒸留された経験をエージェントパイプラインに注入することで、モデルは単に"修正する方法"ではなく、"修正する方法"を学ぶ。
4つの臨床データセットにわたる広範囲な評価は、ExperienceWeaverが一貫してパフォーマンスを改善し、Gemini-3 Proのような最先端のモデルを小さなサンプル設定で越えていることを示している。
関連論文リスト
- Improving ARDS Diagnosis Through Context-Aware Concept Bottleneck Models [2.3802351706765017]
病気を理解するための新しいリソースとして、大規模で一般公開された臨床データセットが登場した。
これらのデータセットは、もともと研究目的で収集されていないデータから派生しており、その結果、しばしば不完全であり、重要なラベルが欠落している。
多くのAIツールは、疾患分類を実行するなど、これらのデータセットを振り返ってラベル付けするために開発されている。
従来の研究は、高レベルな臨床概念にマッピングする解釈可能な概念を学ぶConcept Bottleneck Models (CBMs)を用いて、予測を説明しようと試みてきた。
我々は,急性呼吸障害症候群(ARDS)の診断を,臨床ノートからコンテキスト情報を取り入れて改善することの価値を実証するために,挑戦的なテストケースとして用いている。
論文 参考訳(メタデータ) (2025-08-13T11:19:30Z) - Efficient Medical VIE via Reinforcement Learning [10.713109515157475]
ビジュアル情報抽出(VIE)は、構造化されていない文書イメージを、レポート分析やオンラインコンサルティングといった医療応用に不可欠な構造化フォーマットのような構造化フォーマットに変換する。
従来の手法はOCRと言語モデルに依存し、エンドツーエンドのマルチモーダルモデルは直接生成を提供する。
我々は、100の注釈付きサンプルを使用してこれらの課題に対処するために、Reinforcement Learning with Verifiable Rewards(RLVR)フレームワークをベースとしています。
論文 参考訳(メタデータ) (2025-06-16T11:10:25Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Constructive Large Language Models Alignment with Diverse Feedback [76.9578950893839]
本稿では,大規模言語モデルのアライメント向上のための新しい手法として,コンストラクティブ・ディバース・フィードバック(CDF)を導入する。
我々は,簡単な問題に対する批判的フィードバック,中級問題に対する改善的フィードバック,難題に対する選好的フィードバックを利用する。
このような多様なフィードバックでモデルをトレーニングすることで、トレーニングデータの少ない使用でアライメント性能を向上させることができる。
論文 参考訳(メタデータ) (2023-10-10T09:20:14Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Continual Learning with Strong Experience Replay [32.154995019080594]
SER(Strong Experience Replay)を用いたCL法を提案する。
SERは、メモリバッファから過去の経験を蒸留する以外に、現在のトレーニングデータに模倣された将来の経験を利用する。
複数の画像分類データセットによる実験結果から,SER法が最先端の手法をはるかに上回ることがわかった。
論文 参考訳(メタデータ) (2023-05-23T02:42:54Z) - Learning Predictive and Interpretable Timeseries Summaries from ICU Data [33.787187660310444]
本研究では,ヒトが予測的かつ容易に理解できる臨床時系列の要約を学習するための新しい手法を提案する。
学習した要約は従来の解釈可能なモデルクラスより優れており、病院内死亡率分類タスクにおける最先端のディープラーニングモデルに匹敵する性能を実現している。
論文 参考訳(メタデータ) (2021-09-22T21:14:05Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。