論文の概要: MAE-GEBD:Winning the CVPR'2023 LOVEU-GEBD Challenge
- arxiv url: http://arxiv.org/abs/2306.15704v1
- Date: Tue, 27 Jun 2023 02:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 17:13:15.090184
- Title: MAE-GEBD:Winning the CVPR'2023 LOVEU-GEBD Challenge
- Title(参考訳): MAE-GEBD:CVPR'2023 LOVEU-GEBD Challenge
- Authors: Yuanxi Sun, Rui He, Youzeng Li, Zuwei Huang, Feng Hu, Xu Cheng, Jie
Tang
- Abstract要約: 様々なクラスに適用可能な一般的なイベント境界を検出することによって,ビデオセグメントをセグメントに分割するモデルを構築した。
去年のMAE-GEBD法に基づいて,データ処理戦略と損失関数を調整することにより,GEBDタスクにおけるモデル性能を改善した。
本研究では,2022年のKineetics-GEBD法と比較してF1スコアが0.09%向上したKineetics-GEBDテストセットにおいて,F1スコアの86.03%を達成した。
- 参考スコア(独自算出の注目度): 11.823891739821443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Generic Event Boundary Detection (GEBD) task aims to build a model for
segmenting videos into segments by detecting general event boundaries
applicable to various classes. In this paper, based on last year's MAE-GEBD
method, we have improved our model performance on the GEBD task by adjusting
the data processing strategy and loss function. Based on last year's approach,
we extended the application of pseudo-label to a larger dataset and made many
experimental attempts. In addition, we applied focal loss to concentrate more
on difficult samples and improved our model performance. Finally, we improved
the segmentation alignment strategy used last year, and dynamically adjusted
the segmentation alignment method according to the boundary density and
duration of the video, so that our model can be more flexible and fully
applicable in different situations. With our method, we achieve an F1 score of
86.03% on the Kinetics-GEBD test set, which is a 0.09% improvement in the F1
score compared to our 2022 Kinetics-GEBD method.
- Abstract(参考訳): ジェネリックイベント境界検出(GEBD)タスクは、さまざまなクラスに適用可能な一般的なイベント境界を検出することによって、ビデオをセグメントに分割するモデルを構築することを目的としている。
本稿では,昨年のmae-gebd法に基づいて,データ処理戦略と損失関数を調整することにより,gebdタスクにおけるモデル性能を改善した。
昨年のアプローチに基づいて、擬似ラベルの適用をより大きなデータセットに拡張し、多くの実験的試みを行った。
さらに,難解なサンプルに集中するために焦点損失を適用し,モデル性能を改善した。
最後に、昨年使用したセグメンテーションアライメント戦略を改善し、ビデオの境界密度と持続時間に応じてセグメンテーションアライメント手法を動的に調整し、異なる状況でモデルをより柔軟で完全に適用できるようにした。
本研究では,2022年のKineetics-GEBD法と比較してF1のスコアが0.09%向上し,F1のスコアが86.03%に達した。
関連論文リスト
- Rethinking the Architecture Design for Efficient Generic Event Boundary Detection [71.50748944513379]
ジェネリック(GEBD)は、ビデオを一貫した時間的チャンクに分割する人間の視覚的認知的行動にインスパイアされている。
SOTA GEBDモデルは、しばしばモデル複雑さよりも最終的なパフォーマンスを優先し、推論速度を低くし、現実のシナリオにおける効率的なデプロイメントを妨げる。
我々は,GEBDモデルのアーキテクチャを実験的に再検討し,この問題に対処するために貢献する。
論文 参考訳(メタデータ) (2024-07-17T14:49:54Z) - 3rd Place Solution for MOSE Track in CVPR 2024 PVUW workshop: Complex Video Object Segmentation [63.199793919573295]
ビデオオブジェクト(VOS)はコンピュータビジョンにおいて重要なタスクであり、ビデオフレーム間の背景から前景オブジェクトを区別することに焦点を当てている。
我々の研究はCutieモデルからインスピレーションを得ており、オブジェクトメモリ、メモリフレームの総数、および入力解像度がセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-06T00:56:25Z) - What's in the Flow? Exploiting Temporal Motion Cues for Unsupervised Generic Event Boundary Detection [1.3695134621603882]
ジェネリックイベント境界検出(GEBD)タスクは、ビデオを意味のあるイベントに分割する、ジェネリックで分類のない境界を認識することを目的としている。
現在の手法は通常、大量のデータに基づいてトレーニングされたニューラルモデルを含み、かなりの計算能力とストレージスペースを必要とする。
GEBDのための非パラメトリック非教師技術であるFlowGEBDを提案する。
論文 参考訳(メタデータ) (2024-02-15T14:49:15Z) - ARHNet: Adaptive Region Harmonization for Lesion-aware Augmentation to
Improve Segmentation Performance [61.04246102067351]
本研究では,合成画像をよりリアルに見せるために,前景調和フレームワーク(ARHNet)を提案する。
実画像と合成画像を用いたセグメンテーション性能の向上に本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-02T10:39:29Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - Masked Autoencoders for Generic Event Boundary Detection CVPR'2022
Kinetics-GEBD Challenge [11.823891739821443]
ジェネリックイベント境界検出(GEBD)タスクは、ビデオ全体をチャンクに分割する、ジェネリックで分類のないイベント境界を検出することを目的としている。
本稿では,GABDタスクにおけるアルゴリズム性能向上のためにMasked Autoencodersを適用した。
我々のアプローチでは、2021年のキネティクス-GEBDチャレンジの勝者と比較してF1スコアを2.31%改善したKinetics-GEBDテストセットのF1スコアで85.94%を達成した。
論文 参考訳(メタデータ) (2022-06-17T08:10:27Z) - Winning the CVPR'2021 Kinetics-GEBD Challenge: Contrastive Learning
Approach [27.904987752334314]
本稿では,ジェネリックイベント境界検出タスクに対処するための,新しいコントラスト学習に基づくアプローチを提案する。
本モデルでは,時間的自己相似行列(TSM)を中間表現として利用し,情報ボトルネックとしての役割を担っている。
論文 参考訳(メタデータ) (2021-06-22T05:21:59Z) - A Stronger Baseline for Ego-Centric Action Detection [38.934802199184354]
本稿では,CVPR2021ワークショップ主催のEPIC-KITCHENS-100コンペティションで使用した,エゴセントリックなビデオアクション検出手法について分析する。
我々の課題は、長い未トリミングビデオでアクションの開始時刻と終了時刻を特定し、アクションカテゴリを予測することである。
我々は、ショートデュレーションアクションに適応できる提案を生成するためにスライディングウインドウ戦略を採用する。
論文 参考訳(メタデータ) (2021-06-13T08:11:31Z) - Fast Template Matching and Update for Video Object Tracking and
Segmentation [56.465510428878]
私たちが取り組もうとしている主な課題は、フレームの列にまたがるマルチインスタンスの半教師付きビデオオブジェクトセグメンテーションである。
課題は、結果を予測するためのマッチングメソッドの選択と、ターゲットテンプレートを更新するかどうかを決定することである。
本稿では,これら2つの決定を同時に行うために,強化学習を利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T08:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。