論文の概要: Additive Large Language Models for Semi-Structured Text
- arxiv url: http://arxiv.org/abs/2511.11922v1
- Date: Fri, 14 Nov 2025 23:06:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.3983
- Title: Additive Large Language Models for Semi-Structured Text
- Title(参考訳): 半構造化テキストに対する付加的大言語モデル
- Authors: Karthikeyan K, Raghuveer Thirukovalluru, David Carlson,
- Abstract要約: CALMは半構造化テキストの解釈可能なフレームワークである。
各コンポーネントのコントリビューションの加算和として結果を予測する。
従来の大規模言語モデルに匹敵するパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 3.073796943975155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models have advanced clinical text classification, but their opaque predictions remain a critical barrier to practical adoption in research and clinical settings where investigators and physicians need to understand which parts of a patient's record drive risk signals. To address this challenge, we introduce \textbf{CALM}, short for \textbf{Classification with Additive Large Language Models}, an interpretable framework for semi-structured text where inputs are composed of semantically meaningful components, such as sections of an admission note or question-answer fields from an intake form. CALM predicts outcomes as the additive sum of each component's contribution, making these contributions part of the forward computation itself and enabling faithful explanations at both the patient and population level. The additive structure also enables clear visualizations, such as component-level risk curves similar to those used in generalized additive models, making the learned relationships easier to inspect and communicate. Although CALM expects semi-structured inputs, many clinical documents already have this form, and similar structure can often be automatically extracted from free-text notes. CALM achieves performance comparable to conventional LLM classifiers while improving trust, supporting quality-assurance checks, and revealing clinically meaningful patterns during model development and auditing.
- Abstract(参考訳): 大規模言語モデルは、高度な臨床テキスト分類を持っているが、その不透明な予測は、研究者や医師が患者の記録のどの部分がリスクシグナルを駆動するかを理解する必要がある研究および臨床環境での実践的な採用にとって重要な障壁である。
この課題に対処するために、インプットが意味論的に意味のあるコンポーネントから構成される半構造化テキストの解釈可能なフレームワークである‘textbf{CALM},略して‘textbf{Classification with Additive Large Language Models’を紹介する。
CALMは、各コンポーネントの貢献の加算和として結果を予測し、これらの貢献をフォワード計算自体の一部とし、患者と人口レベルで忠実な説明を可能にする。
加法構造はまた、一般の加法モデルで使用されるものと同様のコンポーネントレベルのリスク曲線のような明確な視覚化を可能にし、学習された関係を検査し、コミュニケーションしやすくする。
CALMは半構造化インプットを期待しているが、多くの臨床文献にはすでにこの形式があり、同様の構造はフリーテキストノートから自動的に抽出されることが多い。
CALMは従来のLCM分類器に匹敵する性能を達成し、信頼性を改善し、品質保証チェックをサポートし、モデル開発と監査の間に臨床的に意味のあるパターンを明らかにする。
関連論文リスト
- ClinStructor: AI-Powered Structuring of Unstructured Clinical Texts [3.073796943975155]
我々は,ClinStructorについて述べる。ClinStructorは大規模言語モデル(LLM)を利用して,臨床自由テキストを予測モデルに先立って構造化されたタスク固有の質問応答ペアに変換するパイプラインである。
本手法は透明性と制御性を大幅に向上させ,予測性能の低下を招く。
論文 参考訳(メタデータ) (2025-11-14T21:21:16Z) - Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text Summaries [56.31117605097345]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - Data Augmentations for Improved (Large) Language Model Generalization [17.75815547057179]
本稿では,データの因果構造を知ることによって導かれる反ファクト的データ拡張を用いて,突発的特徴に対する介入をシミュレートすることを提案する。
この戦略は,ラベルが属性と突発的に相関しているような予測問題に適していることを示す。
論文 参考訳(メタデータ) (2023-10-19T14:59:25Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - FlexR: Few-shot Classification with Language Embeddings for Structured
Reporting of Chest X-rays [37.15474283789249]
構造化された報告テンプレートにおける文によって定義される臨床所見を予測する手法を提案する。
この手法は、胸部X線と関連する自由テキストラジオグラフィーレポートを用いて、対照的な言語画像モデルを訓練することを含む。
その結果, 訓練用画像レベルのアノテーションが限られている場合でも, 胸部X線における重症度評価の構造化された報告タスクを達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-29T16:31:39Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。