論文の概要: TempT: Temporal consistency for Test-time adaptation
- arxiv url: http://arxiv.org/abs/2303.10536v2
- Date: Tue, 18 Apr 2023 17:01:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 17:02:14.056106
- Title: TempT: Temporal consistency for Test-time adaptation
- Title(参考訳): TempT: テスト時間適応のための時間整合性
- Authors: Onur Cezmi Mutlu, Mohammadmahdi Honarmand, Saimourya Surabhi, Dennis
P. Wall
- Abstract要約: 本稿では,ビデオにおけるテスト時間適応の新しい手法として,テスト時間適応のための時間整合性(TempT)を提案する。
TempTは、ビデオにおける表情認識(FER)を含むコンピュータビジョンタスクに幅広い可能性を持つアプローチである。
- 参考スコア(独自算出の注目度): 1.4816117998909832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Temporal consistency for Test-time adaptation (TempT) a novel
method for test-time adaptation on videos through the use of temporal coherence
of predictions across sequential frames as a self-supervision signal. TempT is
an approach with broad potential applications in computer vision tasks
including facial expression recognition (FER) in videos. We evaluate TempT
performance on the AffWild2 dataset. Our approach focuses solely on the
unimodal visual aspect of the data and utilizes a popular 2D CNN backbone in
contrast to larger sequential or attention-based models used in other
approaches. Our preliminary experimental results demonstrate that TempT has
competitive performance compared to the previous years reported performances
and its efficacy provides a compelling proof-of-concept for its use in various
real-world applications.
- Abstract(参考訳): 本稿では,時系列フレーム間の予測の時間的コヒーレンスを自己超越信号として利用することにより,ビデオ上でのテスト時間適応のための新しい手法であるTempTを提案する。
TempTは、ビデオにおける表情認識(FER)を含むコンピュータビジョンタスクに幅広い可能性を持つアプローチである。
AffWild2データセット上でのTempT性能を評価する。
提案手法は,データの一過性の視覚的側面にのみ焦点をあて,他のアプローチで使用されるより大きなシーケンシャルモデルやアテンションベースモデルとは対照的に,一般的な2D CNNバックボーンを利用する。
予備的な実験結果から,TempTは過去の報告した性能と競合する性能を示し,その有効性は実世界の様々なアプリケーションで使用するための説得力のある概念実証を提供する。
関連論文リスト
- Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - Test-time Distribution Learning Adapter for Cross-modal Visual Reasoning [16.998833621046117]
テスト期間中に直接動作するTT-DNA(Test-Time Distribution LearNing Adapter)を提案する。
具体的には,ガウス分布を推定し,少数ショット支援画像の視覚的特徴をモデル化し,支援セットから知識を抽出する。
ヒトの物体相互作用の視覚的推論に関する広範な実験結果から,提案したTT-DNAは既存の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2024-03-10T01:34:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Towards Debiasing Frame Length Bias in Text-Video Retrieval via Causal
Intervention [72.12974259966592]
トリミングビデオクリップのトレーニングセットとテストセットのフレーム長差による時間偏差について,一意かつ体系的に検討した。
Epic-Kitchens-100, YouCook2, MSR-VTTデータセットについて, 因果脱バイアス法を提案し, 広範な実験およびアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-09-17T15:58:27Z) - Temporal Sentence Grounding in Streaming Videos [60.67022943824329]
本稿では,ストリーミングビデオにおける時間文グラウンディング(TSGSV)の新たな課題に取り組むことを目的とする。
TSGSVの目標は、ビデオストリームと所定の文クエリの関連性を評価することである。
本研究では,(1)モデルが今後のイベントを学習することを可能にするTwinNet構造,(2)冗長な視覚的フレームを除去する言語誘導型特徴圧縮器の2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-14T12:30:58Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Video Test-Time Adaptation for Action Recognition [24.596473019563398]
アクション認識システムは、テストデータの予期しない分散シフトに対して脆弱である。
本稿では,ビデオ行動認識モデルの共通分布シフトに対するテスト時間適応を提案する。
提案手法は,既存のテスト時間適応手法よりもかなりの性能向上を示した。
論文 参考訳(メタデータ) (2022-11-24T10:49:54Z) - Extracting or Guessing? Improving Faithfulness of Event Temporal
Relation Extraction [87.04153383938969]
本研究では,TempRel抽出モデルの忠実度を2つの観点から改善する。
第1の視点は、文脈記述に基づいて真に抽出することである。
第2の視点は、適切な不確実性評価を提供することである。
論文 参考訳(メタデータ) (2022-10-10T19:53:13Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - PSEUDo: Interactive Pattern Search in Multivariate Time Series with
Locality-Sensitive Hashing and Relevance Feedback [3.347485580830609]
PSEUDoは、マルチトラックシーケンシャルデータにおける視覚パターンを探索するための適応的機能学習技術である。
提案アルゴリズムは,サブ線形学習と推論時間を特徴とする。
我々は,PSEUDoの効率,精度,操縦性において優位性を示す。
論文 参考訳(メタデータ) (2021-04-30T13:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。