論文の概要: Distinct Theta Synchrony across Speech Modes: Perceived, Spoken, Whispered, and Imagined
- arxiv url: http://arxiv.org/abs/2511.07918v1
- Date: Wed, 12 Nov 2025 01:28:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.541946
- Title: Distinct Theta Synchrony across Speech Modes: Perceived, Spoken, Whispered, and Imagined
- Title(参考訳): 音声モードにまたがる独特なテタシンクロニー:知覚、スポーク、ウィスパード、想像
- Authors: Jung-Sun Lee, Ha-Na Jo, Eunyeong Ko,
- Abstract要約: 人間の音声生成は知覚、過剰、ささやき、想像などの複数のモードを含む。
Theta-band synchronyは、言語処理、注意制御、内的音声と密接に関連している。
本研究は,コネクティビティ指標に基づく音声モード間のセタバンドニューラルシンクロの差異を解析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human speech production encompasses multiple modes such as perceived, overt, whispered, and imagined, each reflecting distinct neural mechanisms. Among these, theta-band synchrony has been closely associated with language processing, attentional control, and inner speech. However, previous studies have largely focused on a single mode, such as overt speech, and have rarely conducted an integrated comparison of theta synchrony across different speech modes. In this study, we analyzed differences in theta-band neural synchrony across speech modes based on connectivity metrics, focusing on region-wise variations. The results revealed that overt and whispered speech exhibited broader and stronger frontotemporal synchrony, reflecting active motor-phonological coupling during overt articulation, whereas perceived speech showed dominant posterior and temporal synchrony patterns, consistent with auditory perception and comprehension processes. In contrast, imagined speech demonstrated a more spatially confined but internally coherent synchronization pattern, primarily involving frontal and supplementary motor regions. These findings indicate that the extent and spatial distribution of theta synchrony differ substantially across modes, with overt articulation engaging widespread cortical interactions, whispered speech showing intermediate engagement, and perception relying predominantly on temporoparietal networks. Therefore, this study aims to elucidate the differences in theta-band neural synchrony across various speech modes, thereby uncovering both the shared and distinct neural dynamics underlying language perception and imagined speech.
- Abstract(参考訳): 人間の音声生成は知覚、過剰、ささやき、想像などの複数のモードを含み、それぞれが異なる神経機構を反映している。
これらのうち、テータバンド同期は言語処理、注意制御、内的音声と密接に関連している。
しかし、従来の研究では、オーバート音声のような単一モードに重点を置いており、異なる音声モード間でのセタ同期を統合的に比較することはめったにない。
本研究では,コネクティビティ指標に基づく音声モード間のセタバンドニューラルシンクロの差異を分析し,地域ごとの変動に着目した。
その結果, 発声・発声音声はより広範で強い前頭側頭葉同期を呈し, 発声時の運動・音韻的結合を反映し, 知覚音声は聴覚知覚や理解過程と整合した後頭葉・側頭葉同期パターンが支配的であった。
対照的に、想像された音声は、主に前頭運動領域と補足運動領域を含む、より空間的に制限されるが、内部的に一貫性のある同期パターンを示した。
以上の結果から,大脳皮質間相互作用に係わるオーベスト明瞭度,中間的エンゲージメントを示すささやき声,時間的交叉ネットワークに大きく依存する知覚など,テタ同期の広さと空間的分布はモードによって大きく異なることが示唆された。
そこで本研究では,様々な音声モードにおけるテータバンドニューラルシンセシスの差異を明らかにすることを目的として,言語知覚と想像音声の相違点を明らかにすることを目的とした。
関連論文リスト
- Multimodal Emotion Coupling via Speech-to-Facial and Bodily Gestures in Dyadic Interaction [0.0]
人間の感情表現は、協調した声、顔、およびジェスチャーの信号を通して現れる。
感情表現型音声と局所的な顔と手の動きを結びつけるより広いダイナミクスは、実際の相互作用において、感情的および行動的手がかりがどのようにコミュニケーションされるかについて深い洞察を得る上で、依然として不可欠である。
本研究では,IEMOCAPコーパスにおけるダイアディック相互作用からの領域特異的モーションキャプチャを用いたマルチモーダル感情結合について検討した。
論文 参考訳(メタデータ) (2025-05-08T10:55:54Z) - Spatiotemporal Emotional Synchrony in Dyadic Interactions: The Role of Speech Conditions in Facial and Vocal Affective Alignment [0.0]
非重複音声は、より明確な感情的調整を促進する。
重なり合う言葉は同期を乱す。
指向性パターンでは, 顔の表情が発話に先行する傾向がみられた。
論文 参考訳(メタデータ) (2025-04-29T14:41:55Z) - Freeform Body Motion Generation from Speech [53.50388964591343]
音声から体の動きを生成することは、音声から体の動きへの非決定論的マッピングのために本質的に困難である。
2ストリームアーキテクチャを組み込んだ新しいフリーフォームモーション生成モデル(FreeMo)を提案する。
実験は、いくつかのベースラインに対して優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-04T13:03:22Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Silent Speech and Emotion Recognition from Vocal Tract Shape Dynamics in
Real-Time MRI [9.614694312155798]
本稿では,音声合成中の声道形状の可変長列における音響情報を理解する,ディープニューラルネットワークに基づく学習フレームワークを提案する。
提案するフレームワークは、畳み込み、繰り返しネットワーク、接続性時間的分類損失から成り、完全にエンドツーエンドに訓練されている。
我々の知る限りでは、この研究は、rtMRIビデオで捉えた個人の動脈の動きに基づいて、音声文全体の認識を示す最初の研究である。
論文 参考訳(メタデータ) (2021-06-16T11:20:02Z) - Looking into Your Speech: Learning Cross-modal Affinity for Audio-visual
Speech Separation [73.1652905564163]
本稿では,音声-視覚的ニューラル処理を用いて音声信号と映像を分離する問題に対処する。
従来の手法では、フレームワイドマッチング基準を用いて、音声とビデオの共有情報を抽出する。
音声と視覚ストリーム間の局所的な親和性だけでなく,グローバル通信を学習するクロスモーダル親和性ネットワーク(CaffNet)を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:39:12Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。