論文の概要: Ev-TTA: Test-Time Adaptation for Event-Based Object Recognition
- arxiv url: http://arxiv.org/abs/2203.12247v1
- Date: Wed, 23 Mar 2022 07:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 03:17:42.649458
- Title: Ev-TTA: Test-Time Adaptation for Event-Based Object Recognition
- Title(参考訳): Ev-TTA:イベントベースオブジェクト認識のためのテスト時間適応
- Authors: Junho Kim, Inwoo Hwang, and Young Min Kim
- Abstract要約: Ev-TTAは、イベントベースのオブジェクト認識のためのシンプルで効果的なテスト時間適応である。
我々の定式化は、入力表現に関係なくうまく適用でき、回帰タスクに拡張できる。
- 参考スコア(独自算出の注目度): 7.814941658661939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Ev-TTA, a simple, effective test-time adaptation algorithm for
event-based object recognition. While event cameras are proposed to provide
measurements of scenes with fast motions or drastic illumination changes, many
existing event-based recognition algorithms suffer from performance
deterioration under extreme conditions due to significant domain shifts. Ev-TTA
mitigates the severe domain gaps by fine-tuning the pre-trained classifiers
during the test phase using loss functions inspired by the spatio-temporal
characteristics of events. Since the event data is a temporal stream of
measurements, our loss function enforces similar predictions for adjacent
events to quickly adapt to the changed environment online. Also, we utilize the
spatial correlations between two polarities of events to handle noise under
extreme illumination, where different polarities of events exhibit distinctive
noise distributions. Ev-TTA demonstrates a large amount of performance gain on
a wide range of event-based object recognition tasks without extensive
additional training. Our formulation can be successfully applied regardless of
input representations and further extended into regression tasks. We expect
Ev-TTA to provide the key technique to deploy event-based vision algorithms in
challenging real-world applications where significant domain shift is
inevitable.
- Abstract(参考訳): 本稿では,イベントベース物体認識のための簡易なテスト時間適応アルゴリズムev-ttaを提案する。
イベントカメラは、高速な動きや急激な照明変化を伴うシーンの測定を行うために提案されているが、既存のイベントベース認識アルゴリズムの多くは、ドメインシフトが著しいため、極端な条件下での性能劣化に悩まされている。
Ev-TTAは、イベントの時空間特性にインスパイアされた損失関数を用いて、テストフェーズ中に事前訓練された分類器を微調整することにより、深刻なドメインギャップを緩和する。
イベントデータは時間的な測定ストリームであるので、我々の損失関数は、変化した環境に迅速に適応するために、隣接するイベントの類似した予測を実行する。
また, 2つの事象の極性間の空間相関を利用して, 事象の極性が異なるノイズ分布を示す極度照明下での雑音を扱う。
ev-ttaは、広範な追加のトレーニングなしで、幅広いイベントベースのオブジェクト認識タスクで大量のパフォーマンス向上を示す。
我々の定式化は入力表現に関係なくうまく適用でき、さらに回帰タスクに拡張できる。
Ev-TTAは、重要なドメインシフトが避けられない現実世界のアプリケーションにイベントベースのビジョンアルゴリズムをデプロイするための重要な技術を提供することを期待しています。
関連論文リスト
- Path-adaptive Spatio-Temporal State Space Model for Event-based Recognition with Arbitrary Duration [9.547947845734992]
イベントカメラはバイオインスパイアされたセンサーで、強度の変化を非同期に捉え、イベントストリームを出力する。
本稿では, PAST-Act と呼ばれる新しいフレームワークを提案する。
私たちはまた、コミュニティの利益のために任意の期間で、ArDVS100という名前の分レベルのイベントベースの認識データセットを構築しました。
論文 参考訳(メタデータ) (2024-09-25T14:08:37Z) - EventZoom: A Progressive Approach to Event-Based Data Augmentation for Enhanced Neuromorphic Vision [9.447299017563841]
ダイナミックビジョンセンサー(DVS)は、高時間分解能と低消費電力でイベントデータをキャプチャする。
イベントデータ拡張は、イベントデータセットのスケールと多様性の制限を克服するための重要な方法である。
論文 参考訳(メタデータ) (2024-05-29T08:39:31Z) - Fast Window-Based Event Denoising with Spatiotemporal Correlation
Enhancement [85.66867277156089]
同時にイベントのスタックを扱うウィンドウベースのイベントデノゲーションを提案する。
空間領域では、実世界の事象と雑音を識別するために、最大後部(MAP)を選択する。
我々のアルゴリズムは、イベントノイズを効果的かつ効率的に除去し、下流タスクの性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-14T15:56:42Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - V2CE: Video to Continuous Events Simulator [1.1009908861287052]
ダイナミック・ビジョン・センサ(DVS)の特性を考慮した複数視点からのストリーム変換のための新しい手法を提案する。
慎重に設計された一連のタイムスタンプ損失は、生成されたイベントボクセルの品質を大幅に向上させるのに役立つ。
また,イベント・ボクセルからのイベント・タイムスタンプを連続的に再現するための局所動的推論手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T06:06:53Z) - Abnormal Event Detection via Hypergraph Contrastive Learning [54.80429341415227]
異常事象検出は多くの実アプリケーションにおいて重要な役割を果たす。
本稿では,分散異種情報ネットワークにおける異常事象検出問題について検討する。
AEHCLと呼ばれる新しいハイパーグラフコントラスト学習法が,異常事象のパターンをフルに捉えるために提案されている。
論文 参考訳(メタデータ) (2023-04-02T08:23:20Z) - Temporal Up-Sampling for Asynchronous Events [0.0]
低明度やスローモーションのシーンでは、イベントはスパースでノイズを伴うことが多い。
より効率的で信頼性の高いイベントを生成するために,イベント時間的アップサンプリングアルゴリズムを提案する。
実験により、アップサンプリングイベントはより効果的な情報を提供し、下流タスクの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-08-18T09:12:08Z) - Learning Constraints and Descriptive Segmentation for Subevent Detection [74.48201657623218]
本稿では,サブイベント検出とEventSeg予測の依存関係をキャプチャする制約を学習し,強制するアプローチを提案する。
我々は制約学習にRectifier Networksを採用し、学習した制約をニューラルネットワークの損失関数の正規化項に変換する。
論文 参考訳(メタデータ) (2021-09-13T20:50:37Z) - Unsupervised Domain Adaptation for Spatio-Temporal Action Localization [69.12982544509427]
S時間動作の局所化はコンピュータビジョンにおいて重要な問題である。
本稿では、エンドツーエンドの教師なしドメイン適応アルゴリズムを提案する。
空間的特徴と時間的特徴を別々にあるいは共同的に適応した場合に,顕著な性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2020-10-19T04:25:10Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。