論文の概要: SleepLM: Natural-Language Intelligence for Human Sleep
- arxiv url: http://arxiv.org/abs/2602.23605v1
- Date: Fri, 27 Feb 2026 02:15:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.207232
- Title: SleepLM: Natural-Language Intelligence for Human Sleep
- Title(参考訳): SleepLM:人間の睡眠のための自然言語インテリジェンス
- Authors: Zongzhe Xu, Zitao Shuai, Eideen Mozaffari, Ravi S. Aysola, Rajesh Kumar, Yuzhe Yang,
- Abstract要約: 私たちは、人間の睡眠アライメント、解釈、自然言語との相互作用を可能にする睡眠言語基盤モデルのファミリーであるSleepLMを紹介します。
SleepLMは自然言語とマルチモーダル・ポリソノグラフィーをブリッジし、言語による睡眠生理学の表現を可能にする。
- 参考スコア(独自算出の注目度): 4.386715091618923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SleepLM, a family of sleep-language foundation models that enable human sleep alignment, interpretation, and interaction with natural language. Despite the critical role of sleep, learning-based sleep analysis systems operate in closed label spaces (e.g., predefined stages or events) and fail to describe, query, or generalize to novel sleep phenomena. SleepLM bridges natural language and multimodal polysomnography, enabling language-grounded representations of sleep physiology. To support this alignment, we introduce a multilevel sleep caption generation pipeline that enables the curation of the first large-scale sleep-text dataset, comprising over 100K hours of data from more than 10,000 individuals. Furthermore, we present a unified pretraining objective that combines contrastive alignment, caption generation, and signal reconstruction to better capture physiological fidelity and cross-modal interactions. Extensive experiments on real-world sleep understanding tasks verify that SleepLM outperforms state-of-the-art in zero-shot and few-shot learning, cross-modal retrieval, and sleep captioning. Importantly, SleepLM also exhibits intriguing capabilities including language-guided event localization, targeted insight generation, and zero-shot generalization to unseen tasks. All code and data will be open-sourced.
- Abstract(参考訳): 私たちは、人間の睡眠アライメント、解釈、自然言語との相互作用を可能にする睡眠言語基盤モデルのファミリーであるSleepLMを紹介します。
睡眠の重要な役割にもかかわらず、学習ベースの睡眠分析システムは、閉じたラベル空間(例えば、事前に定義されたステージやイベント)で機能し、新しい睡眠現象を記述、クエリ、一般化することができない。
SleepLMは自然言語とマルチモーダル・ポリソノグラフィーをブリッジし、言語による睡眠生理学の表現を可能にする。
このアライメントをサポートするために、我々は、1万人以上の個人から100K時間以上のデータを含む、最初の大規模睡眠テキストデータセットのキュレーションを可能にするマルチレベル睡眠キャプション生成パイプラインを導入する。
さらに, コントラストアライメント, キャプション生成, 信号再構成を併用して, 生理的忠実度や相互モーダル相互作用をよりよく把握する, 統合事前学習の目標を提案する。
実世界の睡眠理解タスクに関する大規模な実験により、SleepLMはゼロショット学習、数ショット学習、クロスモーダル検索、睡眠キャプションにおいて最先端の成績を発揮することが確認された。
重要な点として、SleepLMは言語誘導のイベントローカライゼーション、対象とするインサイト生成、目に見えないタスクへのゼロショットの一般化など、興味深い機能も備えている。
すべてのコードとデータはオープンソースになる。
関連論文リスト
- ProsodyLM: Uncovering the Emerging Prosody Processing Capabilities in Speech Language Models [70.56468982313834]
本稿では,韻律学習に適した単純なトークン化方式であるProsodyLMを提案する。
ProsodyLMは事前学習だけで驚くほど多様なプロソディ処理能力を学習できることがわかった。
論文 参考訳(メタデータ) (2025-07-27T00:59:01Z) - How does Alignment Enhance LLMs' Multilingual Capabilities? A Language Neurons Perspective [64.79894853375478]
本稿では,言語ニューロン(言語特異的ニューロンや言語関連ニューロンを含む)と言語非依存ニューロンを検出する,より微細なニューロン識別アルゴリズムを提案する。
異なる種類のニューロンの分布特性に基づいて、多言語推論のためのLCMの内部過程を4つの部分に分割する。
我々は、異なる種類のニューロンに焦点を合わせ、その前後のモデルを体系的に分析する。
論文 参考訳(メタデータ) (2025-05-27T17:59:52Z) - LongHalQA: Long-Context Hallucination Evaluation for MultiModal Large Language Models [96.64960606650115]
LongHalQA (LongHalQA) は、6Kの長い複雑な幻覚テキストからなるLLMフリー幻覚ベンチマークである。
LongHalQA は GPT4V の生成した幻覚データによって特徴付けられる。
論文 参考訳(メタデータ) (2024-10-13T18:59:58Z) - Exploration of LLMs, EEG, and behavioral data to measure and support attention and sleep [8.595588089962556]
本研究では,大きな言語モデル(LLM)を用いて注意状態,睡眠ステージ,睡眠の質を推定する。
以上の結果から,LLMは人間のテキスト行動特性に基づいて睡眠の質を推定できることがわかった。
しかし、脳波と活動データに基づいて注意、睡眠ステージ、睡眠品質を検出するには、さらなるトレーニングデータとドメイン固有の知識が必要である。
論文 参考訳(メタデータ) (2024-08-01T15:17:54Z) - Sharing Matters: Analysing Neurons Across Languages and Tasks in LLMs [85.0284555835015]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野に革命をもたらした。
多言語環境でのLLMの内部動作を探究する研究はほとんどない。
我々は、異なる言語にまたがる特定の入力に対する応答に基づいて、ニューロンを4つの異なるカテゴリに分類する。
論文 参考訳(メタデータ) (2024-06-13T16:04:11Z) - SleepFM: Multi-modal Representation Learning for Sleep Across Brain Activity, ECG and Respiratory Signals [17.416001617612658]
睡眠は、脳、心臓、呼吸活動を記録する様々なモードを通して評価される複雑な生理的過程である。
睡眠分析のための最初のマルチモーダル基礎モデルであるSleepFMを開発した。
コントラスト学習のための新しい一対一アプローチにより、下流タスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-05-28T02:43:53Z) - How do Large Language Models Handle Multilingualism? [81.15060972112563]
本研究では,大規模言語モデル(LLM)が多言語モデルをどのように扱うかを検討する。
LLMはまずクエリを理解し、タスク解決のために多言語入力を英語に変換する。
中間層では、英語を思考に用い、自己意識とフィードフォワード構造を持つ多言語知識を取り入れている。
論文 参考訳(メタデータ) (2024-02-29T02:55:26Z) - Domain Invariant Representation Learning and Sleep Dynamics Modeling for
Automatic Sleep Staging [6.86283473936335]
ニューラルネットワークに基づく睡眠ステージングモデルDREAMを提案し,生理的信号とモデル睡眠ダイナミクスから領域一般化表現を学習する。
DREAMは、様々な被験者の睡眠信号から睡眠関連および被写体不変表現を学習し、シーケンシャル信号セグメントと睡眠ステージ間の相互作用を捉えて睡眠ダイナミクスをモデル化する。
睡眠ステージ予測実験,ケーススタディ,ラベルなしデータの使用,不確実性など,DREAMの優位性を示すための総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2023-12-06T00:28:08Z) - Sleep Activity Recognition and Characterization from Multi-Source
Passively Sensed Data [67.60224656603823]
睡眠活動認識法は、被験者の睡眠覚醒サイクルを評価し、監視し、特徴づけ、行動の変化を検出する指標を提供することができる。
本稿では,スマートフォンから受動的に知覚されたデータを連続的に操作して,睡眠の特徴を識別し,重要な睡眠エピソードを識別する一般的な方法を提案する。
これらの装置は、その用途により、連続的で客観的で非侵襲的な方法で被験者の生体リズムをプロファイルするための優れた代替データ源となっている。
論文 参考訳(メタデータ) (2023-01-17T15:18:45Z) - ProductGraphSleepNet: Sleep Staging using Product Spatio-Temporal Graph
Learning with Attentive Temporal Aggregation [4.014524824655106]
本研究では,協調時間グラフ学習のための適応型製品グラフ学習型グラフ畳み込みネットワークProductGraphSleepNetを提案する。
提案したネットワークにより、臨床医は学習した睡眠段階の接続グラフを理解し、解釈することができる。
論文 参考訳(メタデータ) (2022-12-09T14:34:58Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - TransSleep: Transitioning-aware Attention-based Deep Neural Network for
Sleep Staging [2.105172041656126]
本稿では,局所的な時間的特徴を捉えた新しいディープニューラルネットワーク構造であるTransSleepを提案する。
その結果,TransSleepは自動睡眠ステージングにおいて有望な性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-03-22T08:55:32Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。