論文の概要: Encoder-Free ECG-Language Models
- arxiv url: http://arxiv.org/abs/2601.18798v1
- Date: Mon, 05 Jan 2026 08:38:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.508761
- Title: Encoder-Free ECG-Language Models
- Title(参考訳): エンコーダフリーECG言語モデル
- Authors: William Han, Tony Chen, Chaojing Duan, Xiaoyu Song, Yihang Yao, Yuzhe Yang, Michael A. Rosenberg, Emerson Liu, Ding Zhao,
- Abstract要約: ECG-Language Models (ELM) は、ECGの自動解釈の最近の進歩を拡張している。
我々は、ECGエンコーダをLDMと共同で訓練された単一のプロジェクション層に置き換えるエンコーダフリーのEMMであるELFを紹介する。
5つのデータセットにまたがって、ELFはより複雑なエンコーダとトレーニングパイプラインを使用する最先端のEMMにマッチするか、あるいは超えている。
- 参考スコア(独自算出の注目度): 30.25983036594147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ECG-Language Models (ELMs) extend recent progress in Multimodal Large Language Models (MLLMs) to automated ECG interpretation. However, most ELMs follow Vision-Language Model (VLM) designs and depend on pretrained ECG encoders, adding architectural and training complexity. Inspired by encoder-free VLMs, we introduce ELF, an encoder-free ELM that replaces the ECG encoder with a single projection layer trained jointly with the LLM. Across five datasets, ELF matches or exceeds state-of-the-art ELMs that use far more complex encoders and training pipelines. We also test whether adding architectural biases to ELF improves performance and find that the single linear projection remains competitive. Finally, we show that ELF, and potentially other ELMs, often rely more on benchmark artifacts and language priors than ECG-derived information, highlighting limitations in current evaluation practices and ELM design. All data and code is available at https://github.com/willxxy/ECG-Bench.
- Abstract(参考訳): ECG-Language Models (ELMs) は、Multimodal Large Language Models (MLLMs) の最近の進歩をECGの自動解釈に拡張する。
しかし、ほとんどのEMMはVLM(Vision-Language Model)の設計に従っており、事前訓練されたECGエンコーダに依存しており、アーキテクチャとトレーニングの複雑さが増している。
エンコーダフリーなVLMにインスパイアされたELFは、ECGエンコーダをLDMと共同で訓練した単一のプロジェクション層に置き換えるエンコーダフリーなEMMである。
5つのデータセットにまたがって、ELFはより複雑なエンコーダとトレーニングパイプラインを使用する最先端のEMMにマッチするか、あるいは超えている。
また、ELFにアーキテクチャバイアスを加えることで性能が向上するかどうかも検証し、単一の線形射影が競争力を維持するかどうかを確認します。
最後に、ELFや他の潜在的ELMは、ECGから得られる情報よりも、ベンチマークアーティファクトや言語優先に多く依存しており、現在の評価プラクティスやEMM設計の限界を強調していることを示す。
すべてのデータとコードはhttps://github.com/willxxy/ECG-Bench.comで入手できる。
関連論文リスト
- Retrieval-Augmented Generation for Electrocardiogram-Language Models [27.75347676208195]
生成型心電図言語モデル(ELM)は、ECG信号に条件付きテキスト応答を生成することができる。
Retrieval-Augmented Generation (RAG)は幻覚の低減と自然言語生成の改善を支援する
論文 参考訳(メタデータ) (2025-09-30T20:32:34Z) - ECG-aBcDe: Overcoming Model Dependence, Encoding ECG into a Universal Language for Any LLM [7.632459372363093]
大型言語モデル (LLMs) は心電図 (ECG) 解析において大きな可能性を秘めている。
現在の方法はモデル固有のECGエンコーダに悩まされており、LLM間の転送を妨げる。
我々は、ECG信号を任意のLLMで容易に解釈可能な普遍的なECG言語に変換する新しい符号化法ECG-aBcDeを紹介する。
論文 参考訳(メタデータ) (2025-09-16T03:41:02Z) - ECG-Byte: A Tokenizer for End-to-End Generative Electrocardiogram Language Modeling [20.484166589932702]
大規模言語モデル(LLMs)は、心電図(ECGs)への応用を含む、ドメイン間での例外的な汎用性を実証している。
本稿では,ECGの自動回帰言語モデリングのための適応バイトペア符号化(BPE)トークン化パイプラインであるECG-Byteを提案する。
従来の2段階法で必要とされるデータの48%しか使用せず,3倍高速なトレーニングをしながら,競争力のあるNLG性能を実現する。
論文 参考訳(メタデータ) (2024-12-18T22:13:21Z) - Mono-InternVL: Pushing the Boundaries of Monolithic Multimodal Large Language Models with Endogenous Visual Pre-training [48.455597568212944]
マルチモーダル・ミックス・オブ・エキスパート構造を用いて視覚専門家の集合をシームレスに統合するモノリシックMLLMであるMono-InternVLを提案する。
特に、EViPは、ノイズの多いデータから高品質なデータへの視覚的知識を完全に活用することを目的とした、視覚専門家のための進歩的な学習プロセスとして設計されている。
論文 参考訳(メタデータ) (2024-10-10T17:59:22Z) - LLMAEL: Large Language Models are Good Context Augmenters for Entity Linking [46.577071330549984]
特殊エンティティリンク(EL)モデルは、ユニークな知識ベース(KB)エンティティへのマッピングで十分に訓練されている。
広範に事前訓練された大型言語モデル(LLM)は、一般的でないエンティティの幅広い知識を持っている。
LLMデータ拡張による特殊ELモデルを拡張した最初のフレームワークであるLLMAEL(LLMAEL)を紹介する。
論文 参考訳(メタデータ) (2024-07-04T15:55:13Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Instructed Language Models with Retrievers Are Powerful Entity Linkers [87.16283281290053]
Instructed Generative Entity Linker (INSGENEL)は、カジュアル言語モデルが知識ベース上でエンティティリンクを実行することを可能にする最初のアプローチである。
INSGENEL は、+6.8 F1 点が平均的に上昇する以前の生成的代替よりも優れていた。
論文 参考訳(メタデータ) (2023-11-06T16:38:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。