論文の概要: TempT: Temporal consistency for Test-time adaptation
- arxiv url: http://arxiv.org/abs/2303.10536v1
- Date: Sun, 19 Mar 2023 02:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 18:39:22.015033
- Title: TempT: Temporal consistency for Test-time adaptation
- Title(参考訳): TempT: テスト時間適応のための時間整合性
- Authors: Onur Cezmi Mutlu, Mohammadmahdi Honarmand, Saimourya Surabhi, Dennis
P. Wall
- Abstract要約: TempTは、シーケンシャルフレーム間の予測の時間的コヒーレンスを確保することによって、ビデオ上の時間適応をテストする方法である。
我々は,表現分類チャレンジの一環として,AffWild2データセット上でのTempTの性能を評価する。
- 参考スコア(独自算出の注目度): 1.4816117998909832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this technical report, we introduce TempT, a novel method for test time
adaptation on videos by ensuring temporal coherence of predictions across
sequential frames. TempT is a powerful tool with broad applications in computer
vision tasks, including facial expression recognition (FER) in videos. We
evaluate TempT's performance on the AffWild2 dataset as part of the Expression
Classification Challenge at the 5th Workshop and Competition on Affective
Behavior Analysis in the wild (ABAW). Our approach focuses solely on the
unimodal visual aspect of the data and utilizes a popular 2D CNN backbone, in
contrast to larger sequential or attention based models. Our experimental
results demonstrate that TempT has competitive performance in comparison to
previous years reported performances, and its efficacy provides a compelling
proof of concept for its use in various real world applications.
- Abstract(参考訳): 本報告では,逐次フレーム間における予測の時間的コヒーレンスを確保することにより,ビデオ上での新しいテスト時間適応手法である tempt を紹介する。
TempTは、ビデオの表情認識(FER)を含むコンピュータビジョンタスクに幅広い応用を持つ強力なツールである。
The 5th Workshop and Competition on Affective Behavior Analysis in the wild (ABAW)における表現分類チャレンジの一環として,AffWild2データセット上でのTempTの性能を評価した。
我々のアプローチは、データの一様視覚的側面にのみ焦点をあて、より大規模なシーケンシャルまたは注意に基づくモデルとは対照的に、一般的な2D CNNバックボーンを利用する。
実験の結果,TempTは過去の報告した性能と比較して競争力のある性能を示し,その有効性は実世界の様々な応用における概念実証に有益であることがわかった。
関連論文リスト
- Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - Test-time Distribution Learning Adapter for Cross-modal Visual Reasoning [16.998833621046117]
テスト期間中に直接動作するTT-DNA(Test-Time Distribution LearNing Adapter)を提案する。
具体的には,ガウス分布を推定し,少数ショット支援画像の視覚的特徴をモデル化し,支援セットから知識を抽出する。
ヒトの物体相互作用の視覚的推論に関する広範な実験結果から,提案したTT-DNAは既存の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2024-03-10T01:34:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - Temporal Sentence Grounding in Streaming Videos [60.67022943824329]
本稿では,ストリーミングビデオにおける時間文グラウンディング(TSGSV)の新たな課題に取り組むことを目的とする。
TSGSVの目標は、ビデオストリームと所定の文クエリの関連性を評価することである。
本研究では,(1)モデルが今後のイベントを学習することを可能にするTwinNet構造,(2)冗長な視覚的フレームを除去する言語誘導型特徴圧縮器の2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T12:30:58Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Video Test-Time Adaptation for Action Recognition [24.596473019563398]
アクション認識システムは、テストデータの予期しない分散シフトに対して脆弱である。
本稿では,ビデオ行動認識モデルの共通分布シフトに対するテスト時間適応を提案する。
提案手法は,既存のテスト時間適応手法よりもかなりの性能向上を示した。
論文 参考訳(メタデータ) (2022-11-24T10:49:54Z) - Extracting or Guessing? Improving Faithfulness of Event Temporal
Relation Extraction [87.04153383938969]
本研究では,TempRel抽出モデルの忠実度を2つの観点から改善する。
第1の視点は、文脈記述に基づいて真に抽出することである。
第2の視点は、適切な不確実性評価を提供することである。
論文 参考訳(メタデータ) (2022-10-10T19:53:13Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - PSEUDo: Interactive Pattern Search in Multivariate Time Series with
Locality-Sensitive Hashing and Relevance Feedback [3.347485580830609]
PSEUDoは、マルチトラックシーケンシャルデータにおける視覚パターンを探索するための適応的機能学習技術である。
提案アルゴリズムは,サブ線形学習と推論時間を特徴とする。
我々は,PSEUDoの効率,精度,操縦性において優位性を示す。
論文 参考訳(メタデータ) (2021-04-30T13:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。