論文の概要: OmniFall: A Unified Staged-to-Wild Benchmark for Human Fall Detection
- arxiv url: http://arxiv.org/abs/2505.19889v1
- Date: Mon, 26 May 2025 12:19:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.409202
- Title: OmniFall: A Unified Staged-to-Wild Benchmark for Human Fall Detection
- Title(参考訳): OmniFall:人間による転倒検出のための一元的段階別ベンチマーク
- Authors: David Schneider, Zdravko Marinov, Rafael Baur, Zeyun Zhong, Rodi Düger, Rainer Stiefelhagen,
- Abstract要約: 我々は8つのパブリックな転倒検出データセットを統合するOmniFallを紹介した。
実世界の評価のために、本物の事故ビデオからOOPS-Fallをキュレートする。
I3DやVideoMAEのような凍結したトレーニング済みのバックボーンを用いた実験では、配布中のシナリオとWildのシナリオの間に大きなパフォーマンスギャップが示される。
- 参考スコア(独自算出の注目度): 23.863250825189795
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Current video-based fall detection research mostly relies on small, staged datasets with significant domain biases concerning background, lighting, and camera setup resulting in unknown real-world performance. We introduce OmniFall, unifying eight public fall detection datasets (roughly 14 h of recordings, roughly 42 h of multiview data, 101 subjects, 29 camera views) under a consistent ten-class taxonomy with standardized evaluation protocols. Our benchmark provides complete video segmentation labels and enables fair cross-dataset comparison previously impossible with incompatible annotation schemes. For real-world evaluation we curate OOPS-Fall from genuine accident videos and establish a staged-to-wild protocol measuring generalization from controlled to uncontrolled environments. Experiments with frozen pre-trained backbones such as I3D or VideoMAE reveal significant performance gaps between in-distribution and in-the-wild scenarios, highlighting critical challenges in developing robust fall detection systems. OmniFall Dataset at https://huggingface.co/datasets/simplexsigil2/omnifall , Code at https://github.com/simplexsigil/omnifall-experiments
- Abstract(参考訳): 現在のビデオベースの転倒検出研究は、背景、照明、カメラ設定に関する重要なドメインバイアスを持つ、小さくてステージ化されたデータセットに大きく依存しているため、実際のパフォーマンスは未知である。
OmniFallは8つのパブリックな転倒検出データセット(約14時間、約42時間、マルチビューデータ、101件、101件、29件のカメラビュー)を標準化された評価プロトコルで一貫した10クラス分類で導入する。
提案ベンチマークでは,完全ビデオセグメンテーションラベルが提供され,非互換なアノテーションスキームでは従来不可能であったデータ間比較が可能となった。
実世界評価のために,実際の事故ビデオからOOPS-Fallをキュレートし,制御された環境から制御されていない環境への一般化を測定する段階から段階的なプロトコルを確立する。
I3DやVideoMAEのような凍結したトレーニング済みのバックボーンを用いた実験では、分散中のシナリオとWildのシナリオの間に大きなパフォーマンスギャップが見られ、堅牢なフォール検出システムを開発する上で重要な課題が浮かび上がっている。
OmniFall Dataset at https://huggingface.co/datasets/simplexsigil2/omnifall , Code at https://github.com/simplexsigil/omnifall-experiments
関連論文リスト
- SOTA: Spike-Navigated Optimal TrAnsport Saliency Region Detection in Composite-bias Videos [50.51658520045165]
Spike-d TrAnsport Saliency Region Detection (SOTA)は、スパイクカメラの強度を活用しつつ、空間次元と時間次元の両方のバイアスを緩和するフレームワークである。
本手法では,微妙なフレーム・ツー・フレームの変動を捉えるために,スパイクに基づくマイクロデビア(SM)を導入する。
SOTAは様々な条件にまたがる不整合を減らして予測を洗練させる。
論文 参考訳(メタデータ) (2025-05-01T08:30:40Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - Cutup and Detect: Human Fall Detection on Cutup Untrimmed Videos Using a
Large Foundational Video Understanding Model [0.0]
本研究では,ヒトの転倒検出作業における映像理解基盤モデルの性能について検討する。
トリミングされていないビデオの簡単なカットアップに依存する時間的行動の局所化法を実証する。
結果はリアルタイムアプリケーションに期待でき、HQFSDデータセットで最先端の0.96 F1スコアで、ビデオレベルでフォールを検出する。
論文 参考訳(メタデータ) (2024-01-29T16:37:00Z) - EGOFALLS: A visual-audio dataset and benchmark for fall detection using
egocentric cameras [0.16317061277456998]
転倒は重大であり、高齢者のような脆弱な人口にとって致命的である。
これまでの研究は、単一のセンサー、画像、加速度計によるデータキャプチャによるフォールの検出に対処してきた。
本研究では,エゴセントリックカメラが撮影したビデオから抽出したマルチモーダルディスクリプタを利用する。
論文 参考訳(メタデータ) (2023-09-08T20:14:25Z) - CHAD: Charlotte Anomaly Dataset [2.6774008509840996]
ビデオ異常検出のためのシャーロット異常データセット(CHAD)を提案する。
CHADはバウンディングボックス、アイデンティティ、各アクターのアノテーションを含む最初の異常データセットである。
4つのカメラビューと115万フレーム以上を持つCHADは、完全注釈付き異常検出データセットとしては最大である。
論文 参考訳(メタデータ) (2022-12-19T06:05:34Z) - Shuffled Patch-Wise Supervision for Presentation Attack Detection [12.031796234206135]
顔の偽造防止は、写真、ビデオ、マスク、または認証された人の顔の別の代用品を使用することによって、偽の顔認証を防止するために不可欠である。
ほとんどのプレゼンテーションアタック検出システムはオーバーフィッティングに悩まされており、1つのデータセットでほぼ完璧なスコアを得るが、より現実的なデータを持つ別のデータセットでは失敗する。
画素単位のバイナリ管理とパッチベースのCNNを組み合わせた新しいPAD手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T08:14:13Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。