論文の概要: OpenSync: An opensource platform for synchronizing multiple measures in
neuroscience experiments
- arxiv url: http://arxiv.org/abs/2107.14367v1
- Date: Thu, 29 Jul 2021 23:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 20:01:12.126967
- Title: OpenSync: An opensource platform for synchronizing multiple measures in
neuroscience experiments
- Title(参考訳): OpenSync: 神経科学実験で複数の尺度を同期するオープンソースプラットフォーム
- Authors: Moein Razavi, Vahid Janfaza, Takashi Yamauchi, Anton Leontyev, Shanle
Longmire-Monford, Joseph Orr
- Abstract要約: 本稿では,神経科学実験における複数の指標の同期に使用できる OpenSync というオープンソースのプラットフォームを紹介する。
このプラットフォームは、生理的措置(脳波(EEG)、ガルバニック皮膚反応(GSR)、視線追跡、体の動きなど)、ユーザ入力応答(マウス、キーボード、ジョイスティックなど)、タスク関連情報(刺激マーカー)を自動的に統合し、同期し、記録するのに役立つ。
実験の結果,OpenSyncプラットフォームはマイクロ秒の解像度で複数の測度を同期させることができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The human mind is multimodal. Yet most behavioral studies rely on
century-old measures such as task accuracy and latency. To create a better
understanding of human behavior and brain functionality, we should introduce
other measures and analyze behavior from various aspects. However, it is
technically complex and costly to design and implement the experiments that
record multiple measures. To address this issue, a platform that allows
synchronizing multiple measures from human behavior is needed. Method: This
paper introduces an opensource platform named OpenSync, which can be used to
synchronize multiple measures in neuroscience experiments. This platform helps
to automatically integrate, synchronize and record physiological measures
(e.g., electroencephalogram (EEG), galvanic skin response (GSR), eye-tracking,
body motion, etc.), user input response (e.g., from mouse, keyboard, joystick,
etc.), and task-related information (stimulus markers). In this paper, we
explain the structure and details of OpenSync, provide two case studies in
PsychoPy and Unity. Comparison with existing tools: Unlike proprietary systems
(e.g., iMotions), OpenSync is free and it can be used inside any opensource
experiment design software (e.g., PsychoPy, OpenSesame, Unity, etc.,
https://pypi.org/project/OpenSync/ and
https://github.com/moeinrazavi/OpenSync_Unity). Results: Our experimental
results show that the OpenSync platform is able to synchronize multiple
measures with microsecond resolution.
- Abstract(参考訳): 背景:人間の心はマルチモーダルです。
しかし、行動学のほとんどの研究はタスクの正確さやレイテンシといった1世紀前の尺度に依存している。
人間の行動や脳機能をよりよく理解するためには、他の指標を導入し、様々な側面から行動を分析する必要がある。
しかし、複数の測定値を記録する実験を設計、実装するのは技術的に複雑で費用がかかる。
この問題に対処するには、人間の行動から複数の指標を同期できるプラットフォームが必要である。
方法:本論文では,神経科学実験における複数の指標の同期に使用できるOpenSyncというオープンソースのプラットフォームを紹介する。
このプラットフォームは、脳波(EEG)、ガルバニック皮膚反応(GSR)、視線追跡、体の動きなどの生理的指標を自動的に統合し、同期し、記録するのに役立つ。
ユーザ入力応答(マウス、キーボード、ジョイスティックなど)。
) およびタスク関連情報(刺激マーカー)。
本稿では,OpenSyncの構造と詳細を説明し,サイコピーとユニティの2つのケーススタディを提供する。
既存のツールと比較すると: プロプライエタリなシステム(iMotionsなど)とは異なり、OpenSyncは無料であり、あらゆるオープンソース実験設計ソフトウェア(例えば、AcoyPy、OpenSesame、Unityなど)で使用することができる。
結果: 実験結果から,opensync プラットフォームはマイクロ秒の解像度で複数の計測手段を同期できることがわかった。
関連論文リスト
- OpenOmni: A Collaborative Open Source Tool for Building Future-Ready Multimodal Conversational Agents [11.928422245125985]
Open Omniはオープンソースのエンドツーエンドパイプラインベンチマークツールである。
音声テキスト、感情検出、検索拡張生成、大規模言語モデルなどの高度な技術を統合している。
ローカルとクラウドのデプロイメントをサポートし、データのプライバシを確保し、レイテンシと精度のベンチマークをサポートする。
論文 参考訳(メタデータ) (2024-08-06T09:02:53Z) - Synchformer: Efficient Synchronization from Sparse Cues [100.89656994681934]
コントリビューションには、新しい音声-視覚同期モデル、同期モデルからの抽出を分離するトレーニングが含まれる。
このアプローチは、濃密な設定とスパース設定の両方において最先端の性能を実現する。
また,100万スケールの 'in-the-wild' データセットに同期モデルのトレーニングを拡張し,解釈可能性に対するエビデンス属性技術を調査し,同期モデルの新たな機能であるオーディオ-視覚同期性について検討する。
論文 参考訳(メタデータ) (2024-01-29T18:59:55Z) - GestSync: Determining who is speaking without a talking head [67.75387744442727]
本稿では,ジェスチャ・シンク (Gesture-Sync) を導入する。
Lip-Syncと比較して、Gesture-Syncは、声と体の動きの間にはるかに緩い関係があるため、はるかに難しい。
このモデルは自己教師付き学習だけで訓練でき、LSS3データセット上での性能を評価することができる。
論文 参考訳(メタデータ) (2023-10-08T22:48:30Z) - Sync+Sync: A Covert Channel Built on fsync with Storage [2.800768893804362]
永続ストレージ用にSync+Syncという隠蔽チャネルを構築します。
Sync+Syncは、通常のソリッドステートドライブで約0.40%のエラーレートで、毎秒20,000ビットの伝送帯域を提供する。
Sync+Syncでサイドチャネルアタックを起動し、被害者データベースの操作を正確に検出する。
論文 参考訳(メタデータ) (2023-09-14T12:22:29Z) - StyleSync: High-Fidelity Generalized and Personalized Lip Sync in
Style-based Generator [85.40502725367506]
高忠実度唇同期を実現する効果的なフレームワークであるStyleSyncを提案する。
具体的には、所定の顔の詳細を保存したマスク誘導空間情報符号化モジュールを設計する。
また,限られたフレームのみにスタイル空間とジェネレータの改良を導入することで,パーソナライズされたリップシンクを実現する。
論文 参考訳(メタデータ) (2023-05-09T13:38:13Z) - Synthcity: facilitating innovative use cases of synthetic data in
different data modalities [86.52703093858631]
Synthcityは、MLフェアネス、プライバシ、拡張における合成データの革新的なユースケースのための、オープンソースのソフトウェアパッケージである。
Synthcityは、実践者に対して、合成データにおける最先端の研究とツールへの単一のアクセスポイントを提供する。
論文 参考訳(メタデータ) (2023-01-18T14:49:54Z) - Dyadic Movement Synchrony Estimation Under Privacy-preserving Conditions [7.053333608725945]
本稿では,プライバシー保護条件下での動作同期推定のためのアンサンブル手法を提案する。
本手法は,スケルトンデータや光学フローなど,共有性,個人性に依存しない二次データに完全に依存する。
本手法は,(1)自閉症治療介入から収集したPT13データセットと,(2)シンクロナイズドダイビング競技から収集したTASD-2データセットの2つのデータセットに対して検証を行った。
論文 参考訳(メタデータ) (2022-08-01T18:59:05Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Echo-SyncNet: Self-supervised Cardiac View Synchronization in
Echocardiography [11.407910072022018]
本研究では,外部入力を使わずに,医療用クロスオブケア2Dエコーシリーズを同期する自己教師型学習フレームワークであるEcho-Sync-Netを提案する。
Apical 2 chamberとApical 4 chamber Heartc viewの同期が期待できる結果を得た。
また, 心臓検出のワンショット学習シナリオにおいて, 学習表現の有用性を示す。
論文 参考訳(メタデータ) (2021-02-03T20:48:16Z) - Single-Frame based Deep View Synchronization for Unsynchronized
Multi-Camera Surveillance [56.964614522968226]
マルチカメラ監視はシーンの理解とモデリングにおいて活発な研究課題となっている。
通常、これらのマルチカメラベースのタスクのモデルを設計する際に、カメラはすべて時間的に同期していると仮定される。
我々のビュー同期モデルは、非同期設定下で異なるDNNベースのマルチカメラビジョンタスクに適用される。
論文 参考訳(メタデータ) (2020-07-08T04:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。