論文の概要: WhACC: Whisker Automatic Contact Classifier with Expert Human-Level Performance
- arxiv url: http://arxiv.org/abs/2501.06219v1
- Date: Mon, 06 Jan 2025 21:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-19 07:42:21.298044
- Title: WhACC: Whisker Automatic Contact Classifier with Expert Human-Level Performance
- Title(参考訳): WhACC:Whisker自動接触分類器
- Authors: Phillip Maire, Samson G. King, Jonathan Andrew Cheung, Stefanie Walker, Samuel Andrew Hires,
- Abstract要約: 頭部固定歯列の高速ビデオから触覚周期を識別するピソンパッケージを提案する。
熟練した3人のキュレーターに対して100万フレーム以上の性能を評価する。
私たちは、1億フレームのデータセットを333時間から6時間にキュレートするために必要な人間の時間を削減します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The rodent vibrissal system is pivotal in advancing neuroscience research, particularly for studies of cortical plasticity, learning, decision-making, sensory encoding, and sensorimotor integration. Despite the advantages, curating touch events is labor intensive and often requires >3 hours per million video frames, even after leveraging automated tools like the Janelia Whisker Tracker. We address this limitation by introducing Whisker Automatic Contact Classifier (WhACC), a python package designed to identify touch periods from high-speed videos of head-fixed behaving rodents with human-level performance. WhACC leverages ResNet50V2 for feature extraction, combined with LightGBM for Classification. Performance is assessed against three expert human curators on over one million frames. Pairwise touch classification agreement on 99.5% of video frames, equal to between-human agreement. Finally, we offer a custom retraining interface to allow model customization on a small subset of data, which was validated on four million frames across 16 single-unit electrophysiology recordings. Including this retraining step, we reduce human hours required to curate a 100 million frame dataset from ~333 hours to ~6 hours.
- Abstract(参考訳): 特に、皮質の可塑性、学習、意思決定、感覚エンコーディング、感覚運動器の統合の研究において、歯歯歯歯歯歯列は神経科学研究の進展に重要な役割を担っている。
アドバンテージにもかかわらず、タッチイベントのキュレーションは労働集約的であり、Janelia Whisker Trackerのような自動化ツールを利用した後でも、ビデオフレームに3時間以上かかることが多い。
この制限にはWhisker Automatic Contact Classifier (WhACC)を導入することで対処する。
WhACCはResNet50V2を機能抽出に利用し、LightGBMと組み合わせて分類する。
熟練した3人のキュレーターに対して100万フレーム以上の性能を評価する。
ビデオフレームの99.5%に関するペアワイズタッチ分類契約は、人間間の合意と同等である。
最後に、16個の単ユニットの電気生理学的記録を400万フレームで検証し、少数のデータに対してモデルのカスタマイズを可能にするカスタム・リトレーニング・インタフェースを提供する。
この再トレーニングのステップを含めると、1億のフレームデータセットを333時間から6時間にキュレートするために必要な人間の時間を削減します。
関連論文リスト
- Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - SVFormer: Semi-supervised Video Transformer for Action Recognition [88.52042032347173]
SVFormerは、未ラベルの動画サンプルに対処するために、安定した擬似ラベルフレームワークを採用する。
さらに,ビデオの複雑な時間変動をカバーするための時間ゆらぎを提案する。
特にSVFormerは、Kinetics-400の1%のラベル付け率でトレーニングエポックを減らし、最先端の技術を31.5%上回っている。
論文 参考訳(メタデータ) (2022-11-23T18:58:42Z) - It Takes Two: Masked Appearance-Motion Modeling for Self-supervised
Video Transformer Pre-training [76.69480467101143]
自己監督型ビデオトランスフォーマーの事前トレーニングは、最近マスク・アンド・予測パイプラインの恩恵を受けている。
本稿では,映像中の動きの手がかりを余分な予測対象として明示的に調査し,マスケッド・出現運動モデリングフレームワークを提案する。
一般的なビデオ表現を学習し、Kinects-400で82.3%、Something V2で71.3%、UCF101で91.5%、HMDB51で62.5%を達成する。
論文 参考訳(メタデータ) (2022-10-11T08:05:18Z) - A Prospective Approach for Human-to-Human Interaction Recognition from
Wi-Fi Channel Data using Attention Bidirectional Gated Recurrent Neural
Network with GUI Application Implementation [0.0]
本研究は、WiFiルータとIntel 5300 NIC間の多重入力多重出力無線リンクと、時系列Wi-Fiチャネル状態情報を用いて、人対人同時通信認識を行う。
提案した自己注意誘導双方向Gated Recurrent Neural Networkは、13の相互相互作用を1つの主題ペアに対して最大94%のベンチマーク精度で分類することができる。
論文 参考訳(メタデータ) (2022-02-16T15:40:52Z) - PEg TRAnsfer Workflow recognition challenge report: Does multi-modal
data improve recognition? [14.144188912860892]
PETRAW (PEg TRAnsfert Recognition) の課題は, 手術ワークフロー認識法の開発であった。
PETRAWチャレンジは、仮想シミュレータ上で実行される150ペグの転送シーケンスのデータセットを提供する。
ビデオ/キネマティックベースの手法と一様性(uni-modality)の改善は、すべてのチームにとって重要なものでした。
論文 参考訳(メタデータ) (2022-02-11T18:33:11Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Spatiotemporal Contrastive Video Representation Learning [87.56145031149869]
ラベルのないビデオから視覚的表現を学習するための,自己指導型コントラスト映像表現学習(CVRL)法を提案する。
我々の表現は、コントラスト時間的損失を用いて学習され、同じ短いビデオから2つの強化されたクリップが埋め込み空間にまとめられる。
本研究では,ビデオ自己教師型学習におけるデータ向上の要因について検討し,空間的情報と時間的情報の両方が重要であることを明らかにする。
論文 参考訳(メタデータ) (2020-08-09T19:58:45Z) - Symmetric Dilated Convolution for Surgical Gesture Recognition [10.699258974625073]
外科的ジェスチャーを自動的に検出・分節する新しい時間的畳み込みアーキテクチャを提案する。
本研究では,長期時間パターンを符号化・復号化するために,自己アテンションモジュールでブリッジされた対称的拡張構造を用いて手法を考案する。
JIGSAWSデータセットからの基本的なロボット縫合タスクに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-07-13T13:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。