論文の概要: Unlocking Non-Invasive Brain-to-Text
- arxiv url: http://arxiv.org/abs/2505.13446v1
- Date: Mon, 19 May 2025 17:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.807279
- Title: Unlocking Non-Invasive Brain-to-Text
- Title(参考訳): 非侵襲的脳とテキストのアンロック
- Authors: Dulhan Jayalath, Gilad Landau, Oiwi Parker Jones,
- Abstract要約: 手術なしで麻痺児のコミュニケーションを回復できる最初の非侵襲的脳-コンピュータインタフェース(BCI)を提案する。
この結果は,(1)LLMに基づく最近の単語分類モデルを拡張し,単一単語予測器を閉語彙B2Tシステムに変換する,(2)語彙外単語を扱うための予測的インフィル化アプローチを導入し,有効語彙を大幅に拡大する,(3)データセット間で非侵襲的B2Tモデルをスケールする方法を初めて示す,という3つの貢献によって引き起こされる。
- 参考スコア(独自算出の注目度): 2.874893537471256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite major advances in surgical brain-to-text (B2T), i.e. transcribing speech from invasive brain recordings, non-invasive alternatives have yet to surpass even chance on standard metrics. This remains a barrier to building a non-invasive brain-computer interface (BCI) capable of restoring communication in paralysed individuals without surgery. Here, we present the first non-invasive B2T result that significantly exceeds these critical baselines, raising BLEU by $1.4\mathrm{-}2.6\times$ over prior work. This result is driven by three contributions: (1) we extend recent word-classification models with LLM-based rescoring, transforming single-word predictors into closed-vocabulary B2T systems; (2) we introduce a predictive in-filling approach to handle out-of-vocabulary (OOV) words, substantially expanding the effective vocabulary; and (3) we demonstrate, for the first time, how to scale non-invasive B2T models across datasets, unlocking deep learning at scale and improving accuracy by $2.1\mathrm{-}2.3\times$. Through these contributions, we offer new insights into the roles of data quality and vocabulary size. Together, our results remove a major obstacle to realising practical non-invasive B2T systems.
- Abstract(参考訳): 外科的脳-テキスト (B2T) の大きな進歩、すなわち侵襲的な脳記録からの音声の転写にもかかわらず、非侵襲的な代替手段は標準的な測定基準の機会をはるかに超えていない。
これは、手術なしで麻痺した人のコミュニケーションを回復できる非侵襲的な脳-コンピュータインターフェース(BCI)を構築するための障壁である。
ここでは、これらの臨界基底線を著しく上回り、BLEUを1.4\mathrm{-}2.6\times$に上昇させる最初の非侵襲的B2T結果を示す。
この結果は,(1)LLMに基づく最近の単語分類モデルを拡張し,単一単語予測器をクローズド語彙B2Tシステムに変換する,(2)OV(out-of-vocabulary)単語を扱うための予測的インフィル化アプローチを導入する,(3)非侵襲的B2Tモデルをデータセット間で拡張する方法を初めて示す,2)大規模でディープラーニングをアンロックし,精度を2.1\mathrm{-}2.3\times$.1\mathrm{-}2.3\times.
これらのコントリビューションを通じて、データ品質と語彙サイズの役割に関する新たな洞察を提供する。
この結果から, 実用的非侵襲的B2Tシステムの実現に向けた大きな障害が取り除かれた。
関連論文リスト
- The Iterative Optimal Brain Surgeon: Faster Sparse Recovery by Leveraging Second-Order Information [35.34142909458158]
IHTのような古典的反復的スパースリカバリアルゴリズムのプロジェクションステップにおいて、OBSのような方法で曲率情報を活用することができることを示す。
本稿では,この手法の拡張を,正確なスペーサーを得るための実践的なタスクに適用し,視覚および言語タスクのトランスフォーマーモデルに対して,それを大規模に検証する。
論文 参考訳(メタデータ) (2024-08-30T10:06:26Z) - Improving Cascaded Unsupervised Speech Translation with Denoising
Back-translation [70.33052952571884]
我々は,任意のペアデータを活用することなく,カスケード音声翻訳システムを構築することを提案する。
教師なしのシステムをトレーニングし、CoVoST 2 と CVSS で結果を評価するために、完全にペア化されたデータを使用します。
論文 参考訳(メタデータ) (2023-05-12T13:07:51Z) - A Novel Semi-supervised Meta Learning Method for Subject-transfer
Brain-computer Interface [7.372748737217638]
本稿では,BCIにおけるサブジェクトトランスファー学習のための半教師付きメタラーニング(S)手法を提案する。
提案したSは,まず既存の被験者のメタモデルを学習し,その後,半教師付き学習方式でモデルを微調整する。
ラベル付きデータが不足したり高価であったり、ラベルなしデータが手軽に利用可能であったりするBCIアプリケーションにとって、これは重要である。
論文 参考訳(メタデータ) (2022-09-07T15:38:57Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - Network Binarization via Contrastive Learning [16.274341164897827]
バイナリニューラルネットワーク(BNN)を訓練しながら、新しいコントラスト学習フレームワークを構築する。
MIはバイナリとFPのアクティベーション間で共有される情報を計測する指標として導入された。
以上の結果から,本手法は既存の最先端バイナライズ手法の重ね合わせモジュールとして実装可能であることが示唆された。
論文 参考訳(メタデータ) (2022-07-06T21:04:53Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - Integrated Training for Sequence-to-Sequence Models Using
Non-Autoregressive Transformer [49.897891031932545]
本稿では,非自己回帰変換器をベースとしたケースドモデルを提案する。
我々は、ピボットベースの2つの機械翻訳タスク、すなわち、フランス語-ドイツ語とドイツ語-チェコ語について評価を行う。
論文 参考訳(メタデータ) (2021-09-27T11:04:09Z) - Emergent Communication Pretraining for Few-Shot Machine Translation [66.48990742411033]
我々は、参照ゲームからの創発的コミュニケーションを介してニューラルネットワークを事前訓練する。
私たちの重要な前提は、実世界の環境の粗悪な近似として、画像に基づくコミュニケーションを基盤にすることで、帰納的に自然言語学習のモデルに偏りが生じる、ということです。
論文 参考訳(メタデータ) (2020-11-02T10:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。