論文の概要: Cell Behavior Video Classification Challenge, a benchmark for computer vision methods in time-lapse microscopy
- arxiv url: http://arxiv.org/abs/2601.10250v1
- Date: Thu, 15 Jan 2026 10:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.09579
- Title: Cell Behavior Video Classification Challenge, a benchmark for computer vision methods in time-lapse microscopy
- Title(参考訳): タイムラプス顕微鏡におけるコンピュータビジョン手法のベンチマークである細胞行動ビデオ分類チャレンジ
- Authors: Raffaella Fiamma Cabini, Deborah Barkauskas, Guangyu Chen, Zhi-Qi Cheng, David E Cicchetti, Judith Drazba, Rodrigo Fernandez-Gonzalez, Raymond Hawkins, Yujia Hu, Jyoti Kini, Charles LeWarne, Xufeng Lin, Sai Preethi Nakkina, John W Peterson, Koert Schreurs, Ayushi Singh, Kumaran Bala Kandan Viswanathan, Inge MN Wortel, Sanjian Zhang, Rolf Krause, Santiago Fernandez Gonzalez, Diego Ulisse Pizzagalli,
- Abstract要約: 細胞行動ビデオ分類チャレンジ(VCCB)では,3つのアプローチに基づいて35の手法をベンチマークする。
我々は,細胞力学研究のためのコンピュータビジョン手法の開発の基礎となる,それぞれのアプローチの可能性と限界を比較した。
- 参考スコア(独自算出の注目度): 11.497260442673989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The classification of microscopy videos capturing complex cellular behaviors is crucial for understanding and quantifying the dynamics of biological processes over time. However, it remains a frontier in computer vision, requiring approaches that effectively model the shape and motion of objects without rigid boundaries, extract hierarchical spatiotemporal features from entire image sequences rather than static frames, and account for multiple objects within the field of view. To this end, we organized the Cell Behavior Video Classification Challenge (CBVCC), benchmarking 35 methods based on three approaches: classification of tracking-derived features, end-to-end deep learning architectures to directly learn spatiotemporal features from the entire video sequence without explicit cell tracking, or ensembling tracking-derived with image-derived features. We discuss the results achieved by the participants and compare the potential and limitations of each approach, serving as a basis to foster the development of computer vision methods for studying cellular dynamics.
- Abstract(参考訳): 複雑な細胞の振る舞いを捉えた顕微鏡ビデオの分類は、時間とともに生物学的プロセスのダイナミクスを理解し定量化するために重要である。
しかし、それはコンピュータビジョンのフロンティアであり、厳密な境界のない物体の形状と動きを効果的にモデル化し、静的なフレームではなく画像列全体から階層的な時空間的特徴を抽出し、視野内の複数の物体を説明できるアプローチを必要としている。
この目的のために我々は,トラッキング由来の特徴の分類,ビデオシーケンス全体から時空間的特徴を直接学習するエンド・ツー・エンド・エンドのディープラーニングアーキテクチャ,イメージ由来の特徴の認識という3つのアプローチに基づく35の手法をベンチマークするCBVCC(Cell Behavior Video Classification Challenge)を組織した。
参加者の成果を考察し,各アプローチの可能性と限界を比較し,細胞力学研究のためのコンピュータビジョン手法の開発を促進する基盤となる。
関連論文リスト
- FrameMind: Frame-Interleaved Video Reasoning via Reinforcement Learning [65.42201665046505]
現在のビデオ理解モデルは、各質問の特定の推論条件にかかわらず、固定されたフレームサンプリング戦略に依存し、所定の視覚入力を処理する。
この静的アプローチは、視覚的エビデンスを適応的に収集する能力を制限し、広範囲の時間的カバレッジやきめ細かい空間的詳細を必要とするタスクにおいて、最適以下のパフォーマンスをもたらす。
Frame-Interleaved Chain-of-Thought (FiCOT)を通して、モデルが推論中に視覚情報を動的に要求することを可能にする強化学習で訓練されたエンドツーエンドフレームワークであるFrameMindを紹介する。
従来のアプローチとは異なり、FrameMindは複数のターンで動作し、モデルがテキスト推論とアクティブな視覚知覚を交互に切り替え、ツールを使って抽出する。
論文 参考訳(メタデータ) (2025-09-28T17:59:43Z) - Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control [72.00655365269]
本稿では,協調的軌跡定式化を通じてオブジェクト間ダイナミクスをモデル化する新しいフレームワークであるRoboMasterを紹介する。
オブジェクトを分解する従来の方法とは異なり、我々のコアは、相互作用プロセスを3つのサブステージ(相互作用前、相互作用後、相互作用後)に分解することである。
提案手法は既存の手法よりも優れており,ロボット操作のための軌道制御ビデオ生成における最先端性能を確立している。
論文 参考訳(メタデータ) (2025-06-02T17:57:06Z) - Deep Temporal Sequence Classification and Mathematical Modeling for Cell Tracking in Dense 3D Microscopy Videos of Bacterial Biofilms [18.563062576080704]
そこで我々はDenseTrackという新しいセル追跡アルゴリズムを提案する。
DenseTrackは、ディープラーニングと数学的モデルベースの戦略を統合して、連続するフレーム間の対応を確立する。
固有分解に基づく細胞分裂検出戦略を提案する。
論文 参考訳(メタデータ) (2024-06-27T23:26:57Z) - Enhancing Cell Tracking with a Time-Symmetric Deep Learning Approach [0.34089646689382486]
本研究では,細胞を時間的近傍から追跡できるという仮定にのみ依存する,新しいディープラーニングに基づく追跡手法を開発した。
提案手法は, 細胞の動きパターンを事前の仮定なしに予測器で完全に学習できるという付加的な利点を有する。
論文 参考訳(メタデータ) (2023-08-04T15:57:28Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。