論文の概要: Temporal Context and Architecture: A Benchmark for Naturalistic EEG Decoding
- arxiv url: http://arxiv.org/abs/2601.21215v1
- Date: Thu, 29 Jan 2026 03:26:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.545305
- Title: Temporal Context and Architecture: A Benchmark for Naturalistic EEG Decoding
- Title(参考訳): 時間的コンテキストとアーキテクチャ: 自然主義的脳波デコーディングのためのベンチマーク
- Authors: Mehmet Ergezer,
- Abstract要約: 脳波復号におけるモデルアーキテクチャと時間コンテキストの相互作用について検討する。
我々は,5つのアーキテクチャ,CNN,LSTM,安定化トランスフォーマー(EEGXF),S4,S5を,セグメント長8秒から128秒の4クラスでベンチマークする。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study how model architecture and temporal context interact in naturalistic EEG decoding. Using the HBN movie-watching dataset, we benchmark five architectures, CNN, LSTM, a stabilized Transformer (EEGXF), S4, and S5, on a 4-class task across segment lengths from 8s to 128s. Accuracy improves with longer context: at 64s, S5 reaches 98.7%+/-0.6 and CNN 98.3%+/-0.3, while S5 uses ~20x fewer parameters than CNN. To probe real-world robustness, we evaluate zero-shot cross-frequency shifts, cross-task OOD inputs, and leave-one-subject-out generalization. S5 achieves stronger cross-subject accuracy but makes over-confident errors on OOD tasks; EEGXF is more conservative and stable under frequency shifts, though less calibrated in-distribution. These results reveal a practical efficiency-robustness trade-off: S5 for parameter-efficient peak accuracy; EEGXF when robustness and conservative uncertainty are critical.
- Abstract(参考訳): モデルアーキテクチャと時間文脈が自然主義的脳波復号法においてどのように相互作用するかを考察する。
HBN映画視聴データセットを用いて,5つのアーキテクチャ,CNN,LSTM,安定化トランスフォーマー(EEGXF),S4,S5を,セグメント長8秒から128秒までの4クラスタスクでベンチマークする。
64sでは、S5は98.7%+/-0.6とCNN 98.3%+/-0.3に到達し、S5はCNNの約20倍のパラメータを使用する。
実世界のロバスト性を調べるために、ゼロショットのクロス周波数シフト、クロスタスクのOOD入力、および1つのオブジェクトアウトの一般化を評価する。
S5はより強力なクロスオブジェクト精度を実現するが、OODタスクの過信エラーを発生させる。
これらの結果から,パラメータ効率の高いピーク精度のS5,堅牢性と保守的不確実性のEEGXFが重要であることがわかった。
関連論文リスト
- From Memorization to Creativity: LLM as a Designer of Novel Neural-Architectures [48.83701310501069]
大規模言語モデル(LLM)は、プログラム合成において優れているが、ニューラルネットワーク設計(信頼性、性能、構造的ノベルティ)を自律的にナビゲートする能力は、未調査のままである。
コード指向LLMをクローズドループ合成フレームワークに配置し、22の教師付き微調整サイクルの進化を解析することによって、この問題に対処する。
論文 参考訳(メタデータ) (2026-01-06T13:20:28Z) - Efficient Hate Speech Detection: Evaluating 38 Models from Traditional Methods to Transformers [0.0]
本研究は,6.5Kから451Kまでのデータセットにわたるヘイトスピーチ検出における38のモデル構成を評価する。
以上の結果から,変換器,特にRoBERTaは精度が高く,F1スコアは90%を超えていることがわかった。
論文 参考訳(メタデータ) (2025-09-14T21:17:04Z) - Benchmarking Federated Learning for Throughput Prediction in 5G Live Streaming Applications [5.026196568145574]
本稿では,現実的な5Gエッジシナリオにおけるスループット予測のためのフェデレーション学習戦略の総合的なベンチマークを行う。
FedBNは、非IID条件下で一貫してロバストな性能を提供する。
LSTMとTransformerモデルは、CNNベースのベースラインを最大80%のR2スコアで上回る。
論文 参考訳(メタデータ) (2025-08-11T21:27:40Z) - PIAD-SRNN: Physics-Informed Adaptive Decomposition in State-Space RNN [1.3654846342364306]
時系列予測は、精度と効率のトレードオフを要求することが多い。
物理インフォームド適応分解状態空間RNNであるPIAD-SRNNを提案する。
屋内空気質データセットにおけるPIAD-SRNNの性能評価を行った。
論文 参考訳(メタデータ) (2024-12-01T22:55:58Z) - Towards Stabilized and Efficient Diffusion Transformers through Long-Skip-Connections with Spectral Constraints [51.83081671798784]
Diffusion Transformers (DiT) は、画像およびビデオ生成のための強力なアーキテクチャとして登場し、優れた品質とスケーラビリティを提供している。
DiTの実用アプリケーションは本質的に動的特徴不安定性に悩まされており、キャッシュされた推論中にエラーを増幅する。
我々は,Long-Skip-Connections (LSCs) で拡張された画像およびビデオ生成型DiTであるSkip-DiTを提案する。
論文 参考訳(メタデータ) (2024-11-26T17:28:10Z) - Fusing Pretrained ViTs with TCNet for Enhanced EEG Regression [0.07999703756441758]
本稿では、脳波回帰の精度を高めるために、事前訓練された視覚変換器(ViT)と時間畳み込みネットワーク(TCNet)の統合について詳述する。
以上の結果から, 回転平均角誤差(RMSE)を55.4から51.8に低減した。
性能を犠牲にすることなく、このモデルの速度を桁違いに向上させる(最大4.32倍高速)。
論文 参考訳(メタデータ) (2024-04-02T17:01:51Z) - Shallow Cross-Encoders for Low-Latency Retrieval [69.06104373460597]
BERTやT5のような大きなトランスフォーマーモデルに基づくクロスエンコーダは計算コストが高く、非常に小さな遅延ウィンドウ内で少数の文書しかスコアできない。
より弱い浅層変圧器モデル(すなわち、層数が限られている変圧器)は、これらの実用的な低レイテンシ設定に制約された場合、実際にフルスケールモデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-03-29T15:07:21Z) - OA-CNNs: Omni-Adaptive Sparse CNNs for 3D Semantic Segmentation [70.17681136234202]
設計上の違いを再検討し、スパースCNNが達成できることの限界をテストする。
本稿では,このギャップを埋めるために,適応受容場(親和性)と適応関係という2つの重要な要素を提案する。
この調査により、軽量モジュールを統合するネットワークのファミリーであるOmni-Adaptive 3D CNN(OA-CNN)が開発された。
論文 参考訳(メタデータ) (2024-03-21T14:06:38Z) - Liquid Structural State-Space Models [106.74783377913433]
Liquid-S4はLong-Range Arenaベンチマークで平均87.32%の性能を達成した。
全生音声コマンド認識では、データセットLiquid-S4は96.78%の精度で、S4と比較してパラメータ数が30%減少している。
論文 参考訳(メタデータ) (2022-09-26T18:37:13Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。