論文の概要: Raccoons vs Demons: multiclass labeled P300 dataset
- arxiv url: http://arxiv.org/abs/2005.02251v2
- Date: Mon, 11 May 2020 15:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:55:27.934240
- Title: Raccoons vs Demons: multiclass labeled P300 dataset
- Title(参考訳): Raccoons vs Demons:マルチクラスラベル付きP300データセット
- Authors: V. Goncharenko, R. Grigoryan, A. Samokhina
- Abstract要約: 我々は,VRゲームRacoons vs Demons(RvD)で実施された視覚的P300 BCIのデータセットを公開している。
データには、各刺激予測段階でモデルの信頼度を推定できるように選択された刺激に関する情報を組み込んだリーチラベルが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We publish dataset of visual P300 BCI performed in Virtual Reality (VR) game
Raccoons versus Demons (RvD). Data contains reach labels incorporating
information about stimulus chosen enabling us to estimate model's confidence at
each stimulus prediction stage. Data and experiments code are available at
https://gitlab.com/impulse-neiry_public/raccoons-vs-demons
- Abstract(参考訳): バーチャルリアリティ(VR)ゲームRaccoons vs Demons(RvD)で実行される視覚的P300 BCIのデータセットを公開します。
データには、各刺激予測段階でモデルの信頼度を推定できるように選択された刺激に関する情報が組み込まれている。
データと実験コードはhttps://gitlab.com/impulse-neiry_public/raccoons-vs-demonsで利用可能である。
関連論文リスト
- Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - Benchmark Analysis of Various Pre-trained Deep Learning Models on ASSIRA
Cats and Dogs Dataset [0.0]
ASSIRA Cats & Dogsデータセットは、全体的な受け入れとベンチマーク標準のためにこの研究で使用されている。
各種ベンチマークと損失関数を用いて,事前学習モデルの比較を行った。
この実験から、NASNet Largeを用いて99.65%の最高精度が得られる。
論文 参考訳(メタデータ) (2024-01-09T16:48:11Z) - BEDLAM: A Synthetic Dataset of Bodies Exhibiting Detailed Lifelike
Animated Motion [52.11972919802401]
合成データのみに基づいてトレーニングされたニューラルネットワークは、実際の画像から3次元人間のポーズと形状推定の問題に対して最先端の精度が得られることを示す。
以前の合成データセットは小さく、非現実的で、現実的な衣服が欠けていた。
論文 参考訳(メタデータ) (2023-06-29T13:35:16Z) - Synthetic Data-based Detection of Zebras in Drone Imagery [0.8249180979158817]
本稿では,人工データのみを用いて動物探知機を訓練する手法を提案する。
データセットには、RGB、深さ、骨格関節位置、ポーズ、形状、各被験者のインスタンスセグメンテーションが含まれる。
学習中に人工データのみを用いてゼブラを検出できることを示す。
論文 参考訳(メタデータ) (2023-04-30T09:24:31Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - R3M: A Universal Visual Representation for Robot Manipulation [91.55543664116209]
多様な人間の映像データに基づいて事前訓練された視覚表現が、ロボット操作タスクのデータ効率の学習を可能にする方法について検討する。
R3Mは、CLIPやMoCoのような最先端のビジュアル表現と比較して、スクラッチからのトレーニングよりも20%以上改善し、10%以上改善しています。
論文 参考訳(メタデータ) (2022-03-23T17:55:09Z) - Unsupervised Person Re-Identification with Wireless Positioning under
Weak Scene Labeling [131.18390399368997]
本稿では、弱いシーンラベリングの下で、視覚データと無線位置決めトラジェクトリの両方を用いて、教師なしの人物再識別を探索することを提案する。
具体的には、視覚データと無線情報の相補性をモデル化した、新しい教師なしマルチモーダルトレーニングフレームワーク(UMTF)を提案する。
我々のUMTFには、MMDA(Multimodal Data Association Strategy)とMMGN(Multimodal Graph Neural Network)が含まれている。
論文 参考訳(メタデータ) (2021-10-29T08:25:44Z) - Can we learn where people come from? Retracing of origins in merging
situations [0.0]
センサデータから得られる密度ヒートマップをランダムな森林レセプタの入力として利用し,原産地分布の予測を行う。
シミュレーションデータセット、実験データ、および実験データとシミュレーションデータの両方を備えたハイブリッドアプローチの3つの異なるデータセットを研究します。
論文 参考訳(メタデータ) (2020-12-21T17:42:14Z) - Can Human Sex Be Learned Using Only 2D Body Keypoint Estimations? [0.0]
2次元キーポイントのみを用いた完全自動分類システムを提案する。
キーポイントセットは15個のジョイントから構成され、そのキーポイント推定はOpenPose 2Dキーポイント検出器を用いて得られる。
我々は、キーポイントを入力として、バイナリラベルを出力として、男性と女性を区別する深層学習モデルを学習する。
論文 参考訳(メタデータ) (2020-11-05T21:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。