論文の概要: RodEpil: A Video Dataset of Laboratory Rodents for Seizure Detection and Benchmark Evaluation
- arxiv url: http://arxiv.org/abs/2511.10431v1
- Date: Fri, 14 Nov 2025 01:51:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.864591
- Title: RodEpil: A Video Dataset of Laboratory Rodents for Seizure Detection and Benchmark Evaluation
- Title(参考訳): RodEpil: シーズーア検出とベンチマーク評価のための実験用ダクトのビデオデータセット
- Authors: Daniele Perlo, Vladimir Despotovic, Selma Boudissa, Sang-Yoon Kim, Petr Nazarov, Yanrong Zhang, Max Wintermark, Olivier Keunen,
- Abstract要約: そこで我々は,うっ血性事象の自動検出のための実験用歯列のキュレートされたビデオデータセットを紹介した。
データセットには、クリップレベルで正常な活動または発作とラベル付けされた個々のネズミの短い(10秒)トップダウンとサイドビューのビデオクリップが含まれている。
10,101件の陰性サンプルと19人の被験者から採取された2,952件の陽性サンプルを含んでいる。
- 参考スコア(独自算出の注目度): 0.9456924224763981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a curated video dataset of laboratory rodents for automatic detection of convulsive events. The dataset contains short (10~s) top-down and side-view video clips of individual rodents, labeled at clip level as normal activity or seizure. It includes 10,101 negative samples and 2,952 positive samples collected from 19 subjects. We describe the data curation, annotation protocol and preprocessing pipeline, and report baseline experiments using a transformer-based video classifier (TimeSformer). Experiments employ five-fold cross-validation with strict subject-wise partitioning to prevent data leakage (no subject appears in more than one fold). Results show that the TimeSformer architecture enables discrimination between seizure and normal activity with an average F1-score of 97%. The dataset and baseline code are publicly released to support reproducible research on non-invasive, video-based monitoring in preclinical epilepsy research. RodEpil Dataset access - DOI: 10.5281/zenodo.17601357
- Abstract(参考訳): そこで我々は,うっ血性事象の自動検出のための実験用歯列のキュレートされたビデオデータセットを紹介した。
データセットには、個々のげっ歯類の短い(10~s)トップダウンとサイドビューのビデオクリップが含まれており、クリップレベルでは正常な活動または発作とラベル付けされている。
10,101件の陰性サンプルと19人の被験者から採取された2,952件の陽性サンプルを含んでいる。
本稿では,データキュレーション,アノテーションプロトコル,前処理パイプラインについて述べるとともに,トランスフォーマーベースのビデオ分類器(TimeSformer)を用いたベースライン実験を報告する。
実験では、データ漏洩を防ぐために、厳密な主観的分割を伴う5倍のクロスバリデーションを用いている(1倍以上の被写体は現れない)。
その結果、TimeSformerアーキテクチャは、平均F1スコア97%で発作と正常活動の区別を可能にすることがわかった。
データセットとベースラインコードは、前臨床てんかん研究における非侵襲的、ビデオベースのモニタリングに関する再現可能な研究をサポートするために、公開されている。
RodEpil Dataset Access - DOI: 10.5281/zenodo.17601357
関連論文リスト
- PriVi: Towards A General-Purpose Video Model For Primate Behavior In The Wild [50.656578456979496]
大規模な霊長類中心のビデオ事前トレーニングデータセットであるPriViを紹介する。
PriViには424時間のキュレートされたビデオがあり、11の環境での行動調査から174時間と、さまざまなWebソースの映像を250時間組み合わせている。
プリVi上でV-JEPAを事前訓練し, 軽量凍結分類器を用いて霊長類特有の表現を学習し, 評価した。
論文 参考訳(メタデータ) (2025-11-12T19:27:40Z) - AlphaDent: A dataset for automated tooth pathology detection [98.1937495272719]
このデータセットは、295人の患者の歯のDSLRカメラ写真に基づいており、1200枚以上の画像を含んでいる。
この記事では、データセットとラベリングフォーマットの詳細な説明を提供する。
その結果,高い予測精度が得られた。
論文 参考訳(メタデータ) (2025-07-30T09:34:43Z) - Cutup and Detect: Human Fall Detection on Cutup Untrimmed Videos Using a
Large Foundational Video Understanding Model [0.0]
本研究では,ヒトの転倒検出作業における映像理解基盤モデルの性能について検討する。
トリミングされていないビデオの簡単なカットアップに依存する時間的行動の局所化法を実証する。
結果はリアルタイムアプリケーションに期待でき、HQFSDデータセットで最先端の0.96 F1スコアで、ビデオレベルでフォールを検出する。
論文 参考訳(メタデータ) (2024-01-29T16:37:00Z) - Binary Quantification and Dataset Shift: An Experimental Investigation [54.14283123210872]
量子化は教師付き学習タスクであり、未学習データの集合のクラス有病率の予測器を訓練する。
定量化と他のタイプのデータセットシフトの関係は、いまだ大きく、未調査のままである。
本稿では,これらのシフトに影響を受けるデータセットの生成プロトコルを確立することにより,データセットシフトの種類を詳細に分類する手法を提案する。
論文 参考訳(メタデータ) (2023-10-06T20:11:27Z) - Approximating Counterfactual Bounds while Fusing Observational, Biased
and Randomised Data Sources [64.96984404868411]
我々は、複数の、偏見のある、観察的、介入的な研究からのデータを統合するという問題に対処する。
利用可能なデータの可能性は局所的な最大値を持たないことを示す。
次に、同じアプローチが複数のデータセットの一般的なケースにどのように対処できるかを示す。
論文 参考訳(メタデータ) (2023-07-31T11:28:24Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - COVID-19 Monitoring System using Social Distancing and Face Mask
Detection on Surveillance video datasets [0.0]
本稿では,人物検出,ソーシャルディスタンシング違反検出,顔検出,顔マスク分類を行うための包括的で効果的なソリューションを提案する。
このシステムは、ラベル付きビデオデータセットで91.2%、F1スコア90.79%の精度で動作し、78フレームの平均予測時間は7.12秒である。
論文 参考訳(メタデータ) (2021-10-08T05:57:30Z) - Deception Detection and Remote Physiological Monitoring: A Dataset and
Baseline Experimental Results [10.705008162680647]
本稿では,認知検出と生理モニタリングのデータセットと,このデータセットに対する初期ベースライン結果について述べる。
アプリケーション・コンテキストは,面接者が面接者の選択した回答を騙そうとする面接シナリオである。
インタビュアーはRGB、近赤外線、長波赤外線、心拍、血液酸素、オーディオで記録される。
論文 参考訳(メタデータ) (2021-06-11T19:08:23Z) - Towards Self-Supervision for Video Identification of Individual
Holstein-Friesian Cattle: The Cows2021 Dataset [10.698921107213554]
我々は最大のアイデンティティアノテートホルスタインフリースアン牛データセットCows2021を公開します。
動物同一性学習のための自己超越信号として,ビデオ間の時間的コートパターンの出現を活用することを提案する。
その結果、top-1 57.0% と top-4: 76.9% と調整された rand 指数 0.53 の精度を示した。
論文 参考訳(メタデータ) (2021-05-05T09:08:19Z) - Colonoscopy Polyp Detection: Domain Adaptation From Medical Report
Images to Real-time Videos [76.37907640271806]
大腸内視鏡画像と実時間映像の領域間ギャップに対処する画像-ビデオ結合型ポリープ検出ネットワーク(Ivy-Net)を提案する。
収集したデータセットの実験は、Ivy-Netが大腸内視鏡ビデオで最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-12-31T10:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。