論文の概要: AI-Boosted Video Annotation: Assessing the Process Enhancement
- arxiv url: http://arxiv.org/abs/2510.21798v1
- Date: Mon, 20 Oct 2025 16:10:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.523378
- Title: AI-Boosted Video Annotation: Assessing the Process Enhancement
- Title(参考訳): AIを使ったビデオアノテーション - プロセスの強化を評価する
- Authors: Juan Gutiérrez, Ángel Mora, Pablo Regodón, Silvia Rodriguez, José Luis Blanco,
- Abstract要約: この研究は、アノテーションプロセスの実践的意味、AIコンポーネントの統合、そしてその成果の評価を掘り下げている。
Label Studio と AI を利用したゼロショット事前アノテーションを用いたシングルイテレーション方式を実装した。
また,類似のアノテーションを持つアノテーションの70%に対して,アノテーション時間を35%短縮した。
- 参考スコア(独自算出の注目度): 0.4893345190925178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the enhancement of Human-in-the-Loop video annotation by integrating automatic capabilities to ease the task for annotators and assess their performance. The research delves into the practical implications of the annotation processes, the integration of AI components, and the evaluation of its outcomes. We analyze their impact on efficiency, accuracy, and overall annotation quality. Focusing on the Human-in-the-Loop for video annotation tasks, we implemented a single-iteration scheme using Label Studio and AI-powered zero-shot pre-annotations. Using this framework, we designed a test based on the annotation of the UCF-Crime dataset to discriminate between normal and abnormal activities in video footage. Our results evidence how automatic AI-based pre-annotation can streamline the video annotation workflow, empowering human annotators and optimizing the overall pipeline. Using the pre-annotated data, we observed a 35% reduction in the annotation time for 70% of the annotators with similar quality annotations, compared to the traditional manual annotation task. Results are consistent with asset duration and complexity. We also observed that while annotators rapidly learned to use the tool, the produced annotations are more coherent among annotators and better match the natural clustering of the video frames.
- Abstract(参考訳): 本稿では,アノテータのタスクを容易にし,そのパフォーマンスを評価するために自動機能を統合することで,Human-in-the-Loopビデオアノテーションの強化について検討する。
この研究は、アノテーションプロセスの実践的意味、AIコンポーネントの統合、そしてその成果の評価を掘り下げている。
我々は、それらの効果が効率、正確性、および全体的なアノテーション品質に与える影響を分析する。
ビデオアノテーションタスクのためのHuman-in-the-Loopに着目し,ラベルスタジオとAIによるゼロショット事前アノテーションを用いた単一イテレーション方式を実装した。
このフレームワークを用いて,UCF-Crimeデータセットのアノテーションに基づいて,映像中の正常な活動と異常な活動とを識別する試験を設計した。
私たちの結果は、自動AIベースの事前アノテーションが、ビデオアノテーションワークフローの合理化、人間のアノテーションの強化、パイプライン全体の最適化などを可能にしていることを示す。
注釈付きデータを用いて、従来の手作業のアノテーションタスクと比較して、類似のアノテーションを持つアノテーションの70%に対して、アノテーション時間が35%削減されていることを観察した。
結果は、資産の持続時間と複雑さと一致します。
また、アノテータは急速にツールの使用を覚える一方で、生成したアノテーションはアノテータの間でより一貫性があり、ビデオフレームの自然なクラスタリングとよく一致していることも観察した。
関連論文リスト
- Painting with Words: Elevating Detailed Image Captioning with Benchmark and Alignment Learning [56.31096024472269]
我々はDeCapBenchと、詳細なキャプションタスク用に特別に設計された新しいメトリックであるDCScoreを紹介する。
DCScoreは、反応を最小の自己充足単位に分解することで、幻覚ときめ細かい包括性を評価する。
DeCapBenchは、視覚言語モデルの既存のベンチマークを上回り、記述タスクにおけるVLMアリーナの結果と高い相関を示す。
論文 参考訳(メタデータ) (2025-03-10T22:53:56Z) - Feedback-driven object detection and iterative model improvement [2.3700911865675187]
本稿では,オブジェクト検出モデルの改良を目的としたプラットフォームの開発と評価について述べる。
このプラットフォームでは、イメージのアップロードとアノテートに加えて、微調整されたオブジェクト検出モデルも可能だ。
手動アノテーションと比較して,半自動で最大53%の時間短縮効果を示す。
論文 参考訳(メタデータ) (2024-11-29T16:45:25Z) - HAVANA: Hierarchical stochastic neighbor embedding for Accelerated Video ANnotAtions [59.71751978599567]
本稿では,時間的ビデオアノテーションプロセスの高速化のために,事前抽出した特徴量と次元減少量を用いた新しいアノテーションパイプラインを提案する。
従来のリニア手法と比較して,アノテーションの取り組みが大幅に改善され,12時間以上のビデオのアノテートに要するクリック数が10倍以上に短縮された。
論文 参考訳(メタデータ) (2024-09-16T18:15:38Z) - Spatio-Temporal Side Tuning Pre-trained Foundation Models for Video-based Pedestrian Attribute Recognition [58.79807861739438]
既存の歩行者認識アルゴリズム(PAR)は主に静的画像に基づいて開発されている。
本稿では,時間的情報を完全に活用できるビデオフレームを用いて,人間の属性を理解することを提案する。
論文 参考訳(メタデータ) (2024-04-27T14:43:32Z) - Video Annotator: A framework for efficiently building video classifiers
using vision-language models and active learning [0.0]
Video Annotator(VA)は、ビデオ分類データセットに注釈を付け、管理し、反復するフレームワークである。
VAは、データ収集とモデルのトレーニングをシームレスに統合する、継続的アノテーションプロセスを可能にする。
VAは、最も競争力のあるベースラインと比較して平均精度が6.8ポイント改善されている。
論文 参考訳(メタデータ) (2024-02-09T17:19:05Z) - Helping Hands: An Object-Aware Ego-Centric Video Recognition Model [60.350851196619296]
オブジェクト認識デコーダを導入し、エゴ中心の動画におけるエゴ中心の表現の性能を向上させる。
このモデルは,エゴ認識ビデオモデルの代替として機能し,視覚テキストのグラウンド化による性能向上を図っている。
論文 参考訳(メタデータ) (2023-08-15T17:58:11Z) - Quality and Efficiency of Manual Annotation: Pre-annotation Bias [1.949293198748152]
この実験の目的は、事前アノテーションを用いた場合の最終的なアノテーション品質を判断することである。
実験により、事前アノテーションはより高速な手動構文アノテーションのための効率的なツールであることが確認された。
論文 参考訳(メタデータ) (2023-06-15T17:41:14Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。