論文の概要: Weakly Supervised Video Individual CountingWeakly Supervised Video
Individual Counting
- arxiv url: http://arxiv.org/abs/2312.05923v1
- Date: Sun, 10 Dec 2023 16:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:04:47.417574
- Title: Weakly Supervised Video Individual CountingWeakly Supervised Video
Individual Counting
- Title(参考訳): 弱教師付きビデオ個数 弱教師付ビデオ個数
- Authors: Xinyan Liu and Guorong Li and Yuankai Qi and Ziheng Yan and Zhenjun
Han and Anton van den Hengel and Ming-Hsuan Yang and Qingming Huang
- Abstract要約: Video Individual Countingは、単一のビデオ内のユニークな個人数を予測することを目的としている。
トラジェクトリラベルが提供されない弱い教師付きVICタスクを導入する。
そこで我々は,ネットワークを駆動し,インフロー,アウトフロー,残りを識別するために,エンドツーエンドのトレーニング可能なソフトコントラスト損失を考案した。
- 参考スコア(独自算出の注目度): 126.75545291243142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video Individual Counting (VIC) aims to predict the number of unique
individuals in a single video. % Existing methods learn representations based
on trajectory labels for individuals, which are annotation-expensive. % To
provide a more realistic reflection of the underlying practical challenge, we
introduce a weakly supervised VIC task, wherein trajectory labels are not
provided. Instead, two types of labels are provided to indicate traffic
entering the field of view (inflow) and leaving the field view (outflow). % We
also propose the first solution as a baseline that formulates the task as a
weakly supervised contrastive learning problem under group-level matching. In
doing so, we devise an end-to-end trainable soft contrastive loss to drive the
network to distinguish inflow, outflow, and the remaining. % To facilitate
future study in this direction, we generate annotations from the existing VIC
datasets SenseCrowd and CroHD and also build a new dataset, UAVVIC. % Extensive
results show that our baseline weakly supervised method outperforms supervised
methods, and thus, little information is lost in the transition to the more
practically relevant weakly supervised task. The code and trained model will be
public at \href{https://github.com/streamer-AP/CGNet}{CGNet}
- Abstract(参考訳): ビデオ個別カウント(VIC)は、単一のビデオ内のユニークな個人数を予測することを目的としている。
% の既存手法は, 個人に対する軌跡ラベルに基づく表現を学習する。
%) より現実的な実践的課題の反映として, トラジェクティブラベルが提供されない弱教師付きVICタスクを導入する。
代わりに、ビューのフィールドに入るトラフィック(インフロー)とフィールドビュー(アウトフロー)を去るトラフィックを示す2種類のラベルが提供される。
% グループレベルのマッチングにおいて,タスクを弱教師付きコントラスト学習問題として定式化するベースラインとして,最初のソリューションを提案する。
そこで我々は,ネットワークを駆動し,インフロー,アウトフロー,残りを識別するために,エンドツーエンドのトレーニング可能なソフトコントラスト損失を考案した。
% この方向への今後の研究を促進するため、既存のVICデータセットであるSenseCrowdとCroHDからアノテーションを生成し、新しいデータセットであるUAVVICを構築します。
以上の結果から,我々のベースラインの弱弱弱弱弱弱化手法は教師付き手法よりも優れており,より実践的な弱弱弱化タスクへの移行においてほとんど情報が失われることが示唆された。
コードとトレーニングされたモデルは、 \href{https://github.com/streamer-ap/cgnet}{cgnet}で公開される。
関連論文リスト
- Label-Agnostic Forgetting: A Supervision-Free Unlearning in Deep Models [7.742594744641462]
機械学習の目的は、よく訓練されたモデルで残りのデータセットのデータを保存しながら、忘れられたデータから派生した情報を削除することである。
本研究では,アンラーニングプロセス中にラベルを必要とせずに,教師なしのアンラーニングアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-31T00:29:00Z) - Weakly Supervised Video Anomaly Detection Based on Cross-Batch
Clustering Guidance [39.43891080713327]
ビデオレベルのラベルのみをトレーニングできるため、弱教師付きビデオ異常検出(WSVAD)は難しい課題である。
本稿では,クロスバッチクラスタリングガイダンスに基づく新しいWSVAD手法を提案する。
論文 参考訳(メタデータ) (2022-12-16T14:38:30Z) - Dense Unsupervised Learning for Video Segmentation [49.46930315961636]
ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習のための新しいアプローチを提案する。
これまでの研究とは異なり、我々の定式化によって、完全に畳み込みの仕組みで、密集した特徴表現を直接学習することができる。
我々の手法は、トレーニングデータや計算能力が大幅に少ないにもかかわらず、以前の作業のセグメンテーション精度を超える。
論文 参考訳(メタデータ) (2021-11-11T15:15:11Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Evolving Losses for Unsupervised Video Representation Learning [91.2683362199263]
大規模未ラベル映像データから映像表現を学習する新しい手法を提案する。
提案した教師なし表現学習では,単一のRGBネットワークが実現し,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-02-26T16:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。