論文の概要: Raccoons vs Demons: multiclass labeled P300 dataset
- arxiv url: http://arxiv.org/abs/2005.02251v2
- Date: Mon, 11 May 2020 15:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:55:27.934240
- Title: Raccoons vs Demons: multiclass labeled P300 dataset
- Title(参考訳): Raccoons vs Demons:マルチクラスラベル付きP300データセット
- Authors: V. Goncharenko, R. Grigoryan, A. Samokhina
- Abstract要約: 我々は,VRゲームRacoons vs Demons(RvD)で実施された視覚的P300 BCIのデータセットを公開している。
データには、各刺激予測段階でモデルの信頼度を推定できるように選択された刺激に関する情報を組み込んだリーチラベルが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We publish dataset of visual P300 BCI performed in Virtual Reality (VR) game
Raccoons versus Demons (RvD). Data contains reach labels incorporating
information about stimulus chosen enabling us to estimate model's confidence at
each stimulus prediction stage. Data and experiments code are available at
https://gitlab.com/impulse-neiry_public/raccoons-vs-demons
- Abstract(参考訳): バーチャルリアリティ(VR)ゲームRaccoons vs Demons(RvD)で実行される視覚的P300 BCIのデータセットを公開します。
データには、各刺激予測段階でモデルの信頼度を推定できるように選択された刺激に関する情報が組み込まれている。
データと実験コードはhttps://gitlab.com/impulse-neiry_public/raccoons-vs-demonsで利用可能である。
関連論文リスト
- Benchmarking Monocular 3D Dog Pose Estimation Using In-The-Wild Motion Capture Data [17.042955091063444]
単眼画像からの3次元犬のポーズ推定に焦点をあてた新しいベンチマーク分析を提案する。
マルチモーダルなデータセット3DDogs-Labは屋内で撮影され、様々な犬種が通路で群がっている。
3DDogs-Wildは、光学マーカーをインペイントし、被験者を多様な環境に配置するデータセットの帰化バージョンです。
また, 3DDogs-Wild を用いたモデルトレーニングにより, フィールド内データの評価において, 性能が向上することを示した。
論文 参考訳(メタデータ) (2024-06-20T15:33:39Z) - BaboonLand Dataset: Tracking Primates in the Wild and Automating Behaviour Recognition from Drone Videos [0.8074955699721389]
本研究では,バブーン検出,追跡,行動認識のための,ドローンビデオからの新たなデータセットを提案する。
Baboon検出データセットは、ドローンビデオにすべてのbaboonをバウンディングボックスで手動でアノテートすることで作成されている。
行動認識データセットは、各動物を中心としたビデオサブリージョンであるミニシーンにトラックを変換することで生成される。
論文 参考訳(メタデータ) (2024-05-27T23:09:37Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - BEDLAM: A Synthetic Dataset of Bodies Exhibiting Detailed Lifelike
Animated Motion [52.11972919802401]
合成データのみに基づいてトレーニングされたニューラルネットワークは、実際の画像から3次元人間のポーズと形状推定の問題に対して最先端の精度が得られることを示す。
以前の合成データセットは小さく、非現実的で、現実的な衣服が欠けていた。
論文 参考訳(メタデータ) (2023-06-29T13:35:16Z) - Synthetic Data-based Detection of Zebras in Drone Imagery [0.8249180979158817]
本稿では,人工データのみを用いて動物探知機を訓練する手法を提案する。
データセットには、RGB、深さ、骨格関節位置、ポーズ、形状、各被験者のインスタンスセグメンテーションが含まれる。
学習中に人工データのみを用いてゼブラを検出できることを示す。
論文 参考訳(メタデータ) (2023-04-30T09:24:31Z) - BeCAPTCHA-Type: Biometric Keystroke Data Generation for Improved Bot
Detection [63.447493500066045]
本研究では,キーストローク生体データ合成のためのデータ駆動学習モデルを提案する。
提案手法は,ユニバーサルモデルとユーザ依存モデルに基づく2つの統計的手法と比較する。
実験フレームワークでは16万件の被験者から1億3600万件のキーストロークイベントのデータセットについて検討している。
論文 参考訳(メタデータ) (2022-07-27T09:26:15Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - R3M: A Universal Visual Representation for Robot Manipulation [91.55543664116209]
多様な人間の映像データに基づいて事前訓練された視覚表現が、ロボット操作タスクのデータ効率の学習を可能にする方法について検討する。
R3Mは、CLIPやMoCoのような最先端のビジュアル表現と比較して、スクラッチからのトレーニングよりも20%以上改善し、10%以上改善しています。
論文 参考訳(メタデータ) (2022-03-23T17:55:09Z) - Unsupervised Person Re-Identification with Wireless Positioning under
Weak Scene Labeling [131.18390399368997]
本稿では、弱いシーンラベリングの下で、視覚データと無線位置決めトラジェクトリの両方を用いて、教師なしの人物再識別を探索することを提案する。
具体的には、視覚データと無線情報の相補性をモデル化した、新しい教師なしマルチモーダルトレーニングフレームワーク(UMTF)を提案する。
我々のUMTFには、MMDA(Multimodal Data Association Strategy)とMMGN(Multimodal Graph Neural Network)が含まれている。
論文 参考訳(メタデータ) (2021-10-29T08:25:44Z) - Playing for 3D Human Recovery [88.91567909861442]
本研究では,自動注釈付けされた3Dグラウンド真理でビデオゲームをプレイすることで,膨大な人間のシーケンスを得る。
具体的には,GTA-Vゲームエンジンで生成された大規模3次元人文データセットであるGTA-Humanをコントリビュートする。
GTA-Humanで訓練された単純なフレームベースのベースラインは、より高度な手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-10-14T17:49:42Z) - Can Human Sex Be Learned Using Only 2D Body Keypoint Estimations? [0.0]
2次元キーポイントのみを用いた完全自動分類システムを提案する。
キーポイントセットは15個のジョイントから構成され、そのキーポイント推定はOpenPose 2Dキーポイント検出器を用いて得られる。
我々は、キーポイントを入力として、バイナリラベルを出力として、男性と女性を区別する深層学習モデルを学習する。
論文 参考訳(メタデータ) (2020-11-05T21:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。