論文の概要: FOCAL: A Cost-Aware Video Dataset for Active Learning
- arxiv url: http://arxiv.org/abs/2311.10591v1
- Date: Fri, 17 Nov 2023 15:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-20 14:20:06.789562
- Title: FOCAL: A Cost-Aware Video Dataset for Active Learning
- Title(参考訳): FOCAL: アクティブラーニングのためのコスト対応ビデオデータセット
- Authors: Kiran Kokilepersaud, Yash-Yee Logan, Ryan Benkert, Chen Zhou, Mohit
Prabhushankar, Ghassan AlRegib, Enrique Corona, Kunjan Singh, Mostafa
Parchami
- Abstract要約: アノテーションコストとは、アノテータが与えられたビデオシーケンスのラベル付けと品質保証に要する時間を指す。
本稿では,ビデオデータのシーケンシャルな構造を利用する共形能動学習アルゴリズムを提案する。
共形能動学習法は,従来の能動能動学習法よりも113時間も安価であることを示す。
- 参考スコア(独自算出の注目度): 13.886774655927875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce the FOCAL (Ford-OLIVES Collaboration on Active
Learning) dataset which enables the study of the impact of annotation-cost
within a video active learning setting. Annotation-cost refers to the time it
takes an annotator to label and quality-assure a given video sequence. A
practical motivation for active learning research is to minimize
annotation-cost by selectively labeling informative samples that will maximize
performance within a given budget constraint. However, previous work in video
active learning lacks real-time annotation labels for accurately assessing cost
minimization and instead operates under the assumption that annotation-cost
scales linearly with the amount of data to annotate. This assumption does not
take into account a variety of real-world confounding factors that contribute
to a nonlinear cost such as the effect of an assistive labeling tool and the
variety of interactions within a scene such as occluded objects, weather, and
motion of objects. FOCAL addresses this discrepancy by providing real
annotation-cost labels for 126 video sequences across 69 unique city scenes
with a variety of weather, lighting, and seasonal conditions. We also introduce
a set of conformal active learning algorithms that take advantage of the
sequential structure of video data in order to achieve a better trade-off
between annotation-cost and performance while also reducing floating point
operations (FLOPS) overhead by at least 77.67%. We show how these approaches
better reflect how annotations on videos are done in practice through a
sequence selection framework. We further demonstrate the advantage of these
approaches by introducing two performance-cost metrics and show that the best
conformal active learning method is cheaper than the best traditional active
learning method by 113 hours.
- Abstract(参考訳): 本稿では,ビデオアクティブ学習環境におけるアノテーションコストの影響を調査するためのFOCALデータセットを提案する。
アノテーションコスト(notification-cost)とは、特定のビデオシーケンスのラベル付けと品質保証に要する時間を指す。
アクティブラーニング研究の実践的動機は、所定の予算制約内での性能を最大化する情報的サンプルを選択的にラベル付けすることで、アノテーションコストを最小化することである。
しかし、ビデオアクティブラーニングでは、コスト最小化を正確に評価するためのリアルタイムアノテーションラベルが欠如しており、アノテーションコストが注釈すべきデータ量と線形にスケールすることを前提として運用されている。
この仮定は、補助的なラベル付けツールの効果や、遮蔽物、天候、物体の動きといったシーン内の様々な相互作用など、非線形コストに寄与する様々な現実世界の結合要因を考慮に入れていない。
FOCALはこの不一致に対処するため、69のユニークな都市シーンに、さまざまな天候、照明、季節条件を含む126の動画シーケンスに対して、実際のアノテーションコストのラベルを提供する。
また、アノテーションコストと性能のトレードオフを改善するために、ビデオデータのシーケンシャルな構造を利用する共形能動学習アルゴリズムも導入し、浮動小数点演算(FLOPS)のオーバーヘッドを少なくとも77.67%削減する。
これらのアプローチは、シーケンス選択フレームワークを通じて、実際にビデオのアノテーションがどのように実行されるかをよりよく反映している。
さらに,2つの性能コスト指標を導入することで,これらの手法の利点を実証し,優れた共形型能動学習法が従来の能動学習法よりも113時間安価であることを示す。
関連論文リスト
- HAVANA: Hierarchical stochastic neighbor embedding for Accelerated Video ANnotAtions [59.71751978599567]
本稿では,時間的ビデオアノテーションプロセスの高速化のために,事前抽出した特徴量と次元減少量を用いた新しいアノテーションパイプラインを提案する。
従来のリニア手法と比較して,アノテーションの取り組みが大幅に改善され,12時間以上のビデオのアノテートに要するクリック数が10倍以上に短縮された。
論文 参考訳(メタデータ) (2024-09-16T18:15:38Z) - Learning Tracking Representations from Single Point Annotations [49.47550029470299]
本稿では,単一点アノテーションから追跡表現を弱教師付きで学習することを提案する。
具体的には,エンド・ツー・エンド・エンド・コントラスト学習に先立って,対象対象対象性を取り入れたソフトコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T06:50:58Z) - Revisiting Deep Active Learning for Semantic Segmentation [37.3546941940388]
本研究では,本論文で提案する各種能動的学習目標の性能について,データ分布が決定的であることを示す。
半教師付き学習とアクティブラーニングの統合は,2つの目標が整列した際の性能向上を実証する。
論文 参考訳(メタデータ) (2023-02-08T14:23:37Z) - Urban Scene Semantic Segmentation with Low-Cost Coarse Annotation [107.72926721837726]
粗いアノテーションは、セマンティックセグメンテーションモデルをトレーニングするための、低コストで非常に効果的な代替手段である。
粗い注釈付きデータの未ラベル領域の擬似ラベルを生成する粗大な自己学習フレームワークを提案する。
提案手法は,アノテーションの予算のごく一部で完全に注釈付けされたデータに匹敵する性能が得られるため,大幅な性能向上とアノテーションのコストトレードオフを実現する。
論文 参考訳(メタデータ) (2022-12-15T15:43:42Z) - Active Learning with Effective Scoring Functions for Semi-Supervised
Temporal Action Localization [15.031156121516211]
本稿では,半教師型talという,滅多に研究されていない実践的な課題に焦点を当てる。
本稿では,AL-STALという効果的な能動学習手法を提案する。
実験の結果,AL-STALは既存の競争相手よりも優れ,完全教師付き学習と比較して満足度が高いことがわかった。
論文 参考訳(メタデータ) (2022-08-31T13:39:38Z) - Reducing Label Effort: Self-Supervised meets Active Learning [32.4747118398236]
自己学習の最近の進歩は、いくつかのデータセットで教師付き学習に匹敵する非常に印象的な成果を上げている。
実験の結果, 自己学習は, ラベル付け作業の削減において, 積極的学習よりも極めて効率的であることが判明した。
自己学習またはスクラッチでトレーニングされたアクティブラーニングのパフォーマンスギャップは、データセットのほぼ半分がラベル付けされた時点に近づくにつれて減少します。
論文 参考訳(メタデータ) (2021-08-25T20:04:44Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z) - Learning Spatiotemporal Features via Video and Text Pair Discrimination [30.64670449131973]
クロスモーダルペア(CPD)フレームワークは、ビデオとその関連テキスト間の相関をキャプチャする。
我々は、標準的なビデオデータセット(Kinetics-210k)と未処理のWebビデオデータセット(-300k)でCDDモデルをトレーニングし、その効果を実証する。
論文 参考訳(メタデータ) (2020-01-16T08:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。