論文の概要: Subject Adaptive EEG-based Visual Recognition
- arxiv url: http://arxiv.org/abs/2110.13470v1
- Date: Tue, 26 Oct 2021 08:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 13:51:05.202396
- Title: Subject Adaptive EEG-based Visual Recognition
- Title(参考訳): 適応型脳波に基づく視覚認識
- Authors: Pilhyeon Lee, Sunhee Hwang, Seogkyu Jeon, Hyeran Byun
- Abstract要約: 本稿では,脳波信号に基づいて被験者が観察する視覚オブジェクトのクラスを予測することを目的とした,脳波に基づく視覚認識に焦点を当てた。
主な課題の1つは、異なる主題からの信号の大きなばらつきである。
本稿では,脳波をベースとした視覚認識という新たな課題について紹介する。
- 参考スコア(独自算出の注目度): 14.466626957417864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on EEG-based visual recognition, aiming to predict the
visual object class observed by a subject based on his/her EEG signals. One of
the main challenges is the large variation between signals from different
subjects. It limits recognition systems to work only for the subjects involved
in model training, which is undesirable for real-world scenarios where new
subjects are frequently added. This limitation can be alleviated by collecting
a large amount of data for each new user, yet it is costly and sometimes
infeasible. To make the task more practical, we introduce a novel problem
setting, namely subject adaptive EEG-based visual recognition. In this setting,
a bunch of pre-recorded data of existing users (source) is available, while
only a little training data from a new user (target) are provided. At inference
time, the model is evaluated solely on the signals from the target user. This
setting is challenging, especially because training samples from source
subjects may not be helpful when evaluating the model on the data from the
target subject. To tackle the new problem, we design a simple yet effective
baseline that minimizes the discrepancy between feature distributions from
different subjects, which allows the model to extract subject-independent
features. Consequently, our model can learn the common knowledge shared among
subjects, thereby significantly improving the recognition performance for the
target subject. In the experiments, we demonstrate the effectiveness of our
method under various settings. Our code is available at
https://github.com/DeepBCI/Deep-BCI/tree/master/1_Intelligent_BCI/Subject_Adaptive_EEG_based_Visual_ Recognition.
- Abstract(参考訳): 本稿では,脳波信号に基づいて被験者が観察する視覚物体クラスを予測することを目的とした,脳波に基づく視覚認識について述べる。
主な課題の1つは、異なる主題からの信号の大きなばらつきである。
認識システムは、モデルトレーニングに関わる被験者のみに限るが、これは、新しい被験者が頻繁に追加される現実のシナリオでは望ましくない。
この制限は、新しいユーザーごとに大量のデータを集めることで緩和できるが、コストがかかり、時には実現できない。
タスクをより実用的なものにするために,適応型脳波に基づく視覚認識という新たな問題設定を導入する。
この設定では、既存のユーザ(ソース)の事前記録されたデータの束が利用可能であり、新しいユーザ(ターゲット)からのトレーニングデータのみが提供される。
推定時には、モデルが対象ユーザからの信号のみに基づいて評価される。
この設定は、特に、対象者からのデータ上でモデルを評価する際に、情報源からのトレーニングサンプルが役に立たないため、難しい。
新たな問題に取り組むため,我々は,異なる対象からの特徴分布間の不一致を最小限に抑える,単純かつ効果的なベースラインを設計した。
これにより,対象者間で共有される共通知識を学習でき,対象者の認識性能が大幅に向上する。
実験では,様々な条件下で本手法の有効性を示す。
私たちのコードはhttps://github.com/DeepBCI/Deep-BCI/tree/master/1_Intelligent_BCI/Subject_Adaptive_EEG_based_Visual_ Recognitionで利用可能です。
関連論文リスト
- Decoupling the Class Label and the Target Concept in Machine Unlearning [81.69857244976123]
機械学習の目的は、トレーニングデータの一部を除外した再トレーニングされたモデルを近似するために、トレーニングされたモデルを調整することだ。
過去の研究では、クラスワイド・アンラーニングが対象クラスの知識を忘れることに成功していることが示された。
我々は、TARget-aware Forgetting (TARF) という一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T14:53:30Z) - Zero-shot Degree of Ill-posedness Estimation for Active Small Object Change Detection [8.977792536037956]
日常的な屋内ナビゲーションでは、ロボットは区別できない小さな変化物体を検出する必要がある。
既存の技術は、変更検出モデルを正規化するために、高品質なクラス固有オブジェクトに依存している。
本研究では,受動とアクティブビジョンの両方を改善するために,DoIの概念を検討する。
論文 参考訳(メタデータ) (2024-05-10T01:56:39Z) - Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Source-free Subject Adaptation for EEG-based Visual Recognition [21.02197151821699]
本稿では,脳波に基づく視覚認識の主観的適応に焦点を当てた。
脳波サンプルが限定された対象者向けにカスタマイズされた視覚刺激認識システムを構築することを目的としている。
論文 参考訳(メタデータ) (2023-01-20T07:01:01Z) - Frugal Reinforcement-based Active Learning [12.18340575383456]
本稿では,ラベル効率向上のための新しい能動的学習手法を提案する。
提案手法は反復的であり,多様性,表現性,不確実性の基準を混合した制約対象関数の最小化を目的としている。
また、強化学習に基づく新たな重み付け機構を導入し、各トレーニングイテレーションでこれらの基準を適応的にバランスさせる。
論文 参考訳(メタデータ) (2022-12-09T14:17:45Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Inter-subject Contrastive Learning for Subject Adaptive EEG-based Visual
Recognition [20.866855009168606]
本稿では,主観的適応脳波に基づく視覚認識の課題に取り組む。
脳波信号に基づいて視覚刺激のカテゴリを正確に予測することを目的としている。
同一クラスを共有する特徴の類似性を高めて,異なる対象から得られる特徴の類似性を高めることによって,対象非依存表現を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-07T01:34:57Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Unsupervised and self-adaptative techniques for cross-domain person
re-identification [82.54691433502335]
非重複カメラにおける人物再識別(ReID)は難しい課題である。
Unsupervised Domain Adaptation(UDA)は、ソースで訓練されたモデルから、IDラベルアノテーションなしでターゲットドメインへの機能学習適応を実行するため、有望な代替手段です。
本稿では,新しいオフライン戦略によって生成されたサンプルのトリプレットを利用する,UDAベースのReID手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T23:58:39Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。