論文の概要: BrainForm: a Serious Game for BCI Training and Data Collection
- arxiv url: http://arxiv.org/abs/2510.10169v1
- Date: Sat, 11 Oct 2025 11:17:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.82294
- Title: BrainForm: a Serious Game for BCI Training and Data Collection
- Title(参考訳): BrainForm: BCIトレーニングとデータ収集のためのシリアスなゲーム
- Authors: Michele Romani, Devis Zanoni, Elisabetta Farella, Luca Turchet,
- Abstract要約: TextitBrainFormは、コンシューマハードウェアと最小限のセットアップを使用したデータ収集用に設計された、ゲーミフィケードなBrain-Computer(BCI)トレーニングシステムである。
本研究では,2つの視覚刺激テクスチャの繰り返しセッションにおける制御スキルの発達と性能効果について検討した。
- 参考スコア(独自算出の注目度): 4.1615125582989725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: $\textit{BrainForm}$ is a gamified Brain-Computer Interface (BCI) training system designed for scalable data collection using consumer hardware and a minimal setup. We investigated (1) how users develop BCI control skills across repeated sessions and (2) perceptual and performance effects of two visual stimulation textures. Game Experience Questionnaire (GEQ) scores for Flow}, Positive Affect, Competence and Challenge were strongly positive, indicating sustained engagement. A within-subject study with multiple runs, two task complexities, and post-session questionnaires revealed no significant performance differences between textures but increased ocular irritation over time. Online metrics$\unicode{x2013}$Task Accuracy, Task Time, and Information Transfer Rate$\unicode{x2013}$improved across sessions, confirming learning effects for symbol spelling, even under pressure conditions. Our results highlight the potential of $\textit{BrainForm}$ as a scalable, user-friendly BCI research tool and offer guidance for sustained engagement and reduced training fatigue.
- Abstract(参考訳): $\textit{BrainForm}$は、コンシューマハードウェアと最小限のセットアップを使用したスケーラブルなデータ収集のために設計された、ゲーミファイドなBrain-Computer Interface(BCI)トレーニングシステムである。
本研究では,(1)繰り返しセッションにおけるBCI制御スキルの発達,(2)視覚刺激テクスチャの知覚的・パフォーマンス的効果について検討した。
Game Experience Questionnaire (GEQ) scores for Flow}, Positive Affect, Competence and Challenge were strongly positive。
マルチラン,2つのタスク複雑度,およびセッション後の質問紙調査では,テクスチャに有意な性能差は認められなかったが,時間とともに眼刺激が増大した。
オンラインメトリクス$\unicode{x2013}$Task Accuracy, Task Time, and Information Transfer Rate$\unicode{x2013}$improved across session, confirmeding learning effects for symbol spelling, even under pressure conditions. オンラインメトリクス$\unicode{x2013}$Task Accuracy, Task Time, and Information Transfer Rate$\unicode{x2013}$improved。
我々の結果は、スケーラブルでユーザフレンドリなBCIリサーチツールとして$\textit{BrainForm}$の可能性を強調し、持続的なエンゲージメントとトレーニング疲労の軽減のためのガイダンスを提供する。
関連論文リスト
- Zebra-CoT: A Dataset for Interleaved Vision Language Reasoning [109.84783476090028]
我々は182,384サンプルの多種多様な大規模データセットであるtextbfZebra-CoT$を紹介した。
スケッチや視覚的推論が特に自然なタスクの4つのカテゴリに注目します。
微調整されたベーゲル7Bは高品質な視覚的推論連鎖を生成するモデルを生成する。
論文 参考訳(メタデータ) (2025-07-22T16:35:36Z) - Towards an Emotion-Aware Metaverse: A Human-Centric Shipboard Fire Drill Simulator [0.0]
本稿では,船舶の緊急時に乗組員を準備するために設計された,感情を意識したMetaverseアプリケーション:VR(Virtual Reality)消火訓練シミュレータについて述べる。
シミュレータはリアルタイムで感情を検出し、ストレス下での訓練者の反応を評価し、学習結果を改善する。
論文 参考訳(メタデータ) (2025-03-05T14:58:53Z) - Modality and Task Adaptation for Enhanced Zero-shot Composed Image Retrieval [20.612534837883892]
Zero-Shot Composed Image Retrieval (ZS-CIR) はバイモーダル (image+text) クエリを用いてターゲット画像を取得するように設計されている。
本稿では,2つのコンポーネントからなる軽量なポストホックフレームワークを提案する。
実験により,提案するコンポーネントを組み込むことで,インバージョンに基づく手法が大幅な改善を実現することが示された。
論文 参考訳(メタデータ) (2024-10-31T08:49:05Z) - Visual tracking brain computer interface [3.6406449811180415]
非侵襲脳波に基づく視覚的BCIは、離散的な刺激設計と復号法によって連続的なタスクに制限に直面している。
本研究では,新しい空間符号化刺激パラダイムを実装し,デコード速度の連続変調を可能にするプロジェクション法を考案した。
その後、高いフィットのITRを持つBCIは、絵画とゲームを含む2つのアプリケーションに統合された。
論文 参考訳(メタデータ) (2023-11-21T13:29:20Z) - A Brain-Computer Interface Augmented Reality Framework with
Auto-Adaptive SSVEP Recognition [1.1674893622721483]
本稿では,オブジェクト間の可変性を扱う単純な適応型アンサンブル分類システムを提案する。
また,多様なSSVEPベースのBCI-ARアプリケーションの開発を支援する,シンプルなBCI-ARフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-11T21:56:00Z) - Accelerating exploration and representation learning with offline
pre-training [52.6912479800592]
1つのオフラインデータセットから2つの異なるモデルを別々に学習することで、探索と表現の学習を改善することができることを示す。
ノイズコントラスト推定と補助報酬モデルを用いて状態表現を学習することで、挑戦的なNetHackベンチマークのサンプル効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-03-31T18:03:30Z) - Visual Perturbation-aware Collaborative Learning for Overcoming the
Language Prior Problem [60.0878532426877]
本稿では,視覚的摂動校正の観点から,新しい協調学習手法を提案する。
具体的には、異なる摂動範囲で2種類のキュレートされた画像を構築するための視覚コントローラを考案する。
2つの診断VQA-CPベンチマークデータセットの実験結果は、その効果を明らかに示している。
論文 参考訳(メタデータ) (2022-07-24T23:50:52Z) - Perceiving the World: Question-guided Reinforcement Learning for
Text-based Games [64.11746320061965]
本稿では,環境に関する質問に答えることで,タスクやプーンアクションを自動的に分解する世界認識モジュールを提案する。
次に、強化学習から言語学習を分離する2段階学習フレームワークを提案し、サンプル効率をさらに向上させる。
論文 参考訳(メタデータ) (2022-03-20T04:23:57Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。