論文の概要: Event Collapse in Contrast Maximization Frameworks
- arxiv url: http://arxiv.org/abs/2207.04007v2
- Date: Mon, 11 Jul 2022 12:56:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 11:26:25.860311
- Title: Event Collapse in Contrast Maximization Frameworks
- Title(参考訳): コントラスト最大化フレームワークにおけるイベント崩壊
- Authors: Shintaro Shiba, Yoshimitsu Aoki, Guillermo Gallego
- Abstract要約: ContrastMax (C) は、いくつかのイベントベースのコンピュータビジョン、例えば光学エゴモーションやフロー推定などのタスクに対して最先端の結果を提供するフレームワークである。
しかし、それはイベント崩壊と呼ばれる問題に悩まされるかもしれない。
我々の研究は、最も単純な形で事象の崩壊を実証し、時空変形の第一原理を用いて崩壊メトリクスを提案する。
- 参考スコア(独自算出の注目度): 13.298845944779108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrast maximization (CMax) is a framework that provides state-of-the-art
results on several event-based computer vision tasks, such as ego-motion or
optical flow estimation. However, it may suffer from a problem called event
collapse, which is an undesired solution where events are warped into too few
pixels. As prior works have largely ignored the issue or proposed workarounds,
it is imperative to analyze this phenomenon in detail. Our work demonstrates
event collapse in its simplest form and proposes collapse metrics by using
first principles of space-time deformation based on differential geometry and
physics. We experimentally show on publicly available datasets that the
proposed metrics mitigate event collapse and do not harm well-posed warps. To
the best of our knowledge, regularizers based on the proposed metrics are the
only effective solution against event collapse in the experimental settings
considered, compared with other methods. We hope that this work inspires
further research to tackle more complex warp models.
- Abstract(参考訳): コントラスト最大化(cmax)は、エゴモーションやオプティカルフロー推定など、いくつかのイベントベースのコンピュータビジョンタスクに最先端の結果を提供するフレームワークである。
しかし、イベント崩壊(event collapse)と呼ばれる問題に苦しむ可能性がある。
先行研究は問題や回避策をほとんど無視しているため、この現象を詳細に分析することが不可欠である。
本研究は,その最も単純な形態で事象の崩壊を実証し,微分幾何学と物理に基づく時空変形の第一原理を用いて崩壊計量を提案する。
提案するメトリクスが事象の崩壊を緩和し,適切に設定されたワープを損なわないことを,公開データセットに実験的に示す。
我々の知る限りでは、提案した指標に基づく正則化器は、他の手法と比較して検討された実験環境における事象崩壊に対する唯一の効果的な解決策である。
この研究が、より複雑なワープモデルに取り組むためのさらなる研究を促すことを期待しています。
関連論文リスト
- CMax-SLAM: Event-based Rotational-Motion Bundle Adjustment and SLAM
System using Contrast Maximization [14.771885020122062]
イベントカメラはバイオインスパイアされた視覚センサで、ピクセルワイドの強度変化を捉え、非同期イベントストリームを出力する。
本稿では,イベントカメラを用いた回転運動推定の問題点について考察する。
過去10年間にいくつかの事象に基づく回転推定法が開発されてきたが、その性能は評価されていない。
論文 参考訳(メタデータ) (2024-03-12T23:05:10Z) - Improving Event Definition Following For Zero-Shot Event Detection [66.27883872707523]
ゼロショットイベント検出に対する既存のアプローチは通常、既知のイベントタイプをアノテートしたデータセット上でモデルをトレーニングする。
イベント定義に従うためのトレーニングモデルによるゼロショットイベント検出の改善を目指しています。
論文 参考訳(メタデータ) (2024-03-05T01:46:50Z) - From Simple to Complex: A Progressive Framework for Document-level
Informative Argument Extraction [34.37013964529546]
イベント引数抽出(EAE)は、単一のドキュメントから複数のイベントの引数を抽出するモデルを必要とする。
文書レベルEAEのための簡易・複雑プログレッシブフレームワークを提案する。
提案手法は,F1 において SOTA を 1.4% 上回る性能を示し,EAE タスクにおいて有用であることを示す。
論文 参考訳(メタデータ) (2023-10-25T04:38:02Z) - On the Embedding Collapse when Scaling up Recommendation Models [53.66285358088788]
埋め込み崩壊現象をスケーラビリティの阻害とみなし、埋め込み行列は低次元の部分空間を占有する傾向にある。
本稿では,組込み集合固有の相互作用モジュールを組み込んで,多様性を持つ組込み集合を学習する,単純かつ効果的な組込み設計を提案する。
論文 参考訳(メタデータ) (2023-10-06T17:50:38Z) - A Fast Geometric Regularizer to Mitigate Event Collapse in the Contrast
Maximization Framework [13.298845944779108]
本稿では,事象の崩壊を緩和する幾何学的原理に基づく,新しい計算効率の高い正規化器を提案する。
実験により,提案した正則化器は最先端の精度を実現する一方で,計算複雑性の低減により,従来の手法の2倍から4倍の高速化が得られた。
論文 参考訳(メタデータ) (2022-12-14T17:22:48Z) - Secrets of Event-Based Optical Flow [13.298845944779108]
イベントカメラはシーンダイナミクスに反応し、動きを推定する利点を提供する。
コントラスト最大化フレームワークを拡張し、イベントのみから光の流れを推定する原理的手法を開発した。
本手法はMVSECベンチマークにおける教師なし手法の中で第1位であり,DSECベンチマークでは競争力がある。
論文 参考訳(メタデータ) (2022-07-20T16:40:38Z) - Globally-Optimal Contrast Maximisation for Event Cameras [30.79931004393174]
イベントカメラはバイオインスパイアされたセンサーで、高時間分解能で難解な照明にうまく機能する。
イベントカメラの画素は独立して非同期に動作する。
事象の流れは、時空の体積における一般的なホモグラフィック・ワープによってモデル化される。
論文 参考訳(メタデータ) (2022-06-10T14:06:46Z) - Reliable Shot Identification for Complex Event Detection via
Visual-Semantic Embedding [72.9370352430965]
本稿では,映像中の事象検出のための視覚的意味的誘導損失法を提案する。
カリキュラム学習に動機付け,高い信頼性の事例で分類器の訓練を開始するために,負の弾性正規化項を導入する。
提案する非ネット正規化問題の解法として,代替最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-12T11:46:56Z) - CoSeg: Cognitively Inspired Unsupervised Generic Event Segmentation [118.18977078626776]
イベントセグメンテーション/バウンダリ検出のためのエンドツーエンドの自己教師型学習フレームワークを提案する。
本フレームワークは, イベント境界を再構成誤差で検出するトランスフォーマーに基づく特徴再構成手法を利用する。
私たちの研究の目標は、特定のイベントをローカライズするのではなく、ジェネリックイベントをセグメント化することです。
論文 参考訳(メタデータ) (2021-09-30T14:40:32Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。