論文の概要: Open-Source Tools for Behavioral Video Analysis: Setup, Methods, and
Development
- arxiv url: http://arxiv.org/abs/2204.02842v1
- Date: Wed, 6 Apr 2022 14:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 15:27:52.646605
- Title: Open-Source Tools for Behavioral Video Analysis: Setup, Methods, and
Development
- Title(参考訳): 行動ビデオ分析のためのオープンソースツール:セットアップ、方法、開発
- Authors: Kevin Luxem, Jennifer J. Sun, Sean P. Bradley, Keerthi Krishnan, Talmo
D. Pereira, Eric A. Yttri, Jan Zimmermann, and Mark Laubach
- Abstract要約: ビデオ分析の方法は、より正確でスケーラブルで再現可能な行動量化を変換している。
動画解析のためのオープンソースのツールが、行動を理解するための新しい実験的なアプローチを生み出した。
我々は、現在利用可能な、ビデオ分析のためのオープンソースツール、ビデオ録画方法に慣れたラボでのセットアップ方法、対処すべき課題についてレビューする。
- 参考スコア(独自算出の注目度): 2.248500763940652
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently developed methods for video analysis, especially models for pose
estimation and behavior classification, are transforming behavioral
quantification to be more precise, scalable, and reproducible in fields such as
neuroscience and ethology. These tools overcome long-standing limitations of
manual scoring of video frames and traditional "center of mass" tracking
algorithms to enable video analysis at scale. The expansion of open-source
tools for video acquisition and analysis has led to new experimental approaches
to understand behavior. Here, we review currently available open source tools
for video analysis, how to set them up in a lab that is new to video recording
methods, and some issues that should be addressed by developers and advanced
users, including the need to openly share datasets and code, how to compare
algorithms and their parameters, and the need for documentation and
community-wide standards. We hope to encourage more widespread use and
continued development of the tools. They have tremendous potential for
accelerating scientific progress for understanding the brain and behavior.
- Abstract(参考訳): 近年,映像分析,特にポーズ推定と行動分類のモデルが,行動定量化をより正確で,スケーラブルで,神経科学や倫理学などの分野で再現可能なものにしている。
これらのツールは、ビデオフレームの手動スコアリングと従来の「質量の中心」追跡アルゴリズムの長期的制限を克服し、大規模なビデオ分析を可能にする。
動画の取得と分析のためのオープンソースツールの拡張は、行動を理解するための新しい実験的なアプローチをもたらした。
ここでは、現在利用可能なビデオ分析用のオープンソースツール、ビデオ録画方法に新しくなったラボにそれらを設定する方法、開発者や先進的なユーザによって対処されるべき問題、オープンなデータセットとコード共有の必要性、アルゴリズムとパラメータの比較方法、ドキュメントとコミュニティ全体の標準の必要性などについてレビューする。
より広く利用し、ツールの開発を継続したいと思っています。
脳と行動を理解するための科学的進歩を加速させる大きな可能性を秘めている。
関連論文リスト
- psifx -- Psychological and Social Interactions Feature Extraction Package [3.560429497877327]
psifxはマルチモーダルな特徴抽出ツールキットである。
それは、人間の科学研究に最先端の機械学習技術を使うことを容易にし、民主化することを目的としている。
論文 参考訳(メタデータ) (2024-07-14T16:20:42Z) - Needle In A Video Haystack: A Scalable Synthetic Evaluator for Video MLLMs [20.168429351519055]
ビデオ理解はマルチモーダル大言語モデル(LMLM)にとって重要な次のステップである
合成ビデオ生成によるベンチマーク構築フレームワークであるVideoNIAH(Video Needle In A Haystack)を提案する。
我々は、プロプライエタリモデルとオープンソースモデルの両方を包括的に評価し、ビデオ理解能力の重大な違いを明らかにする。
論文 参考訳(メタデータ) (2024-06-13T17:50:05Z) - A Review of Machine Learning Methods Applied to Video Analysis Systems [3.518774226658318]
本稿では,ビデオ解析のための機械学習技術の開発について調査する。
本稿では,ビデオ分析における自己教師型学習,半教師型学習,アクティブ学習,ゼロショット学習の開発の概要について述べる。
論文 参考訳(メタデータ) (2023-12-08T20:24:03Z) - Video-Bench: A Comprehensive Benchmark and Toolkit for Evaluating
Video-based Large Language Models [81.84810348214113]
ビデオベースの大規模言語モデル(Video-LLMs)が最近導入され、認識と理解の基本的な改善と多様なユーザからの問い合わせの両方をターゲットにしている。
このようなモデルの開発を導くため、堅牢で包括的な評価システムの構築が重要となる。
本稿では,ビデオLLMの評価に特化して設計されたツールキットとともに,新しい総合的なベンチマークであるtextitVideo-Benchを提案する。
論文 参考訳(メタデータ) (2023-11-27T18:59:58Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - PosePipe: Open-Source Human Pose Estimation Pipeline for Clinical
Research [0.0]
我々は臨床現場で取得したデータに対して最先端のアルゴリズムの実行を容易にする人間のポーズ推定パイプラインを開発する。
本研究の目的は,新しいアルゴリズムの訓練ではなく,臨床・翻訳研究における最先端のポーズ推定アルゴリズムの活用を推し進めることである。
論文 参考訳(メタデータ) (2022-03-16T17:54:37Z) - Ada-VSR: Adaptive Video Super-Resolution with Meta-Learning [56.676110454594344]
VideoSuperResolution(Ada-SR)は、メタトランスファー学習と内部学習を通じて、それぞれ外部および内部情報を使用する。
提案手法を用いてトレーニングしたモデルでは,若干の勾配更新しか行わず,特定の映像条件に迅速に適応できるため,推論時間を大幅に短縮できる。
論文 参考訳(メタデータ) (2021-08-05T19:59:26Z) - DRIFT: A Toolkit for Diachronic Analysis of Scientific Literature [0.7349727826230862]
DRIFTをオープンソースとして公開し、研究者が長年の研究動向と開発を追跡できるようにしました。
分析手法は、よく暗唱された研究成果と照合され、我々のいくつかの方法が良い測定のために追加されている。
本ツールの有用性と有効性を示すため,arXivリポジトリのcs.CLコーパスのケーススタディを行い,解析手法から推論を行う。
論文 参考訳(メタデータ) (2021-07-02T17:33:25Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z) - Comprehensive Instructional Video Analysis: The COIN Dataset and
Performance Evaluation [100.68317848808327]
包括的インストラクショナルビデオ解析のための大規模データセット「COIN」を提案する。
COINデータセットには、日々の生活に関連する12の領域で180のタスクの11,827の動画が含まれている。
新しい開発ツールボックスでは、すべてのビデオに一連のステップラベルと対応する時間境界がアノテートされる。
論文 参考訳(メタデータ) (2020-03-20T16:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。