論文の概要: Lightweight Event-based Optical Flow Estimation via Iterative Deblurring
- arxiv url: http://arxiv.org/abs/2211.13726v1
- Date: Thu, 24 Nov 2022 17:26:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:45:37.537344
- Title: Lightweight Event-based Optical Flow Estimation via Iterative Deblurring
- Title(参考訳): 反復分解による軽量イベントベース光フロー推定
- Authors: Yilun Wu, Federico Paredes-Vall\'es, Guido C. H. E. de Croon
- Abstract要約: IDNetは相関ボリュームを計算しないイベントベースの光フローネットワークである。
我々は「ID」と「TID」の2つの反復的な更新方式を提案する。
以前の"ID"スキームは、計算における33%の節約とメモリフットプリントの90%という、時間的パフォーマンスに近い状態に到達することができる。
後者の"TID"スキームは、より効率的な計算コストの83%、パフォーマンス低下の18%のコストで15倍のレイテンシを約束している。
- 参考スコア(独自算出の注目度): 13.359590890052457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by frame-based methods, state-of-the-art event-based optical flow
networks rely on the explicit computation of correlation volumes, which are
expensive to compute and store on systems with limited processing budget and
memory. To this end, we introduce IDNet (Iterative Deblurring Network), a
lightweight yet well-performing event-based optical flow network without using
correlation volumes. IDNet leverages the unique spatiotemporally continuous
nature of event streams to propose an alternative way of implicitly capturing
correlation through iterative refinement and motion deblurring. Our network
does not compute correlation volumes but rather utilizes a recurrent network to
maximize the spatiotemporal correlation of events iteratively. We further
propose two iterative update schemes: "ID" which iterates over the same batch
of events, and "TID" which iterates over time with streaming events in an
online fashion. Benchmark results show the former "ID" scheme can reach close
to state-of-the-art performance with 33% of savings in compute and 90% in
memory footprint, while the latter "TID" scheme is even more efficient
promising 83% of compute savings and 15 times less latency at the cost of 18%
of performance drop.
- Abstract(参考訳): フレームベースの手法に触発されて、最先端のイベントベースの光フローネットワークは相関ボリュームの明示的な計算に依存しており、処理予算とメモリが限られているシステム上で計算・保存するのに費用がかかる。
この目的のために,IDNet(Iterative Deblurring Network)を導入した。
IDNetは、イベントストリームの時空間的連続的なユニークな性質を活用し、反復的な洗練と動きの劣化を通じて、暗黙的に相関を捉える方法を提案する。
我々のネットワークは相関ボリュームを計算せず、リカレントネットワークを用いてイベントの時空間相関を反復的に最大化する。
さらに、同じイベントのバッチを繰り返す"ID"と、オンラインの方法でストリーミングイベントを繰り返す"TID"という2つの反復的な更新スキームを提案する。
ベンチマークの結果、以前の"id"スキームは、計算コストの33%、メモリフットプリントの90%という最先端のパフォーマンスに到達できるが、後者の"tid"スキームはさらに効率的であり、計算節約の83%、パフォーマンス低下の18%のコストで15倍のレイテンシを期待できる。
関連論文リスト
- LD-Pruner: Efficient Pruning of Latent Diffusion Models using Task-Agnostic Insights [2.8461446020965435]
本稿では,遅延拡散モデル圧縮のための新しい性能保存型構造化プルーニング手法であるLD-Prunerを紹介する。
我々は,テキスト・トゥ・イメージ(T2I)生成,無条件画像生成(UIG),無条件音声生成(UAG)の3つのタスクに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-04-18T06:35:37Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - EfficientDM: Efficient Quantization-Aware Fine-Tuning of Low-Bit Diffusion Models [21.17675493267517]
ポストトレーニング量子化(PTQ)と量子化学習(QAT)は、拡散モデルを圧縮・加速する2つの主要なアプローチである。
我々は、PTQのような効率でQATレベルの性能を実現するために、EfficientDMと呼ばれる低ビット拡散モデルのためのデータフリーかつパラメータ効率の微調整フレームワークを導入する。
提案手法は, PTQに基づく拡散モデルにおいて, 同様の時間とデータ効率を保ちながら, 性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-10-05T02:51:53Z) - DIFT: Dynamic Iterative Field Transforms for Memory Efficient Optical
Flow [44.57023882737517]
光フロー推定のための軽量低レイテンシ・メモリ効率モデルを提案する。
DIFTは、モバイル、XR、マイクロUAV、ロボティクス、カメラなどのエッジアプリケーションで実現可能である。
Snapdragon 8 Gen 1 HTPの効率的なモバイルAIアクセラレータ上で,最初のリアルタイムコストボリュームベースの光フローDLアーキテクチャを実演する。
論文 参考訳(メタデータ) (2023-06-09T06:10:59Z) - Taming Contrast Maximization for Learning Sequential, Low-latency,
Event-based Optical Flow [18.335337530059867]
イベントカメラは、複雑なコンピュータビジョン問題に対する低レイテンシで低消費電力のソリューションのための新しい道を開くことで、大きな注目を集めている。
これらのソリューションをアンロックするには、イベントデータのユニークな性質を活用するアルゴリズムを開発する必要がある。
本研究では,イベントベース光フロー推定のための自己教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-09T12:37:33Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Correlate-and-Excite: Real-Time Stereo Matching via Guided Cost Volume
Excitation [65.83008812026635]
本稿では,GCE ( Guided Cost Volume Excitation) を構築し,画像によって誘導されるコストボリュームの簡単なチャネル励磁により,性能が大幅に向上することを示す。
我々はCorrelate-and-Excite(CoEx)と呼ぶエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-12T14:32:26Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Reinforcement Learning with Latent Flow [78.74671595139613]
Flow of Latents for Reinforcement Learning (Flare)はRLのためのネットワークアーキテクチャであり、潜時ベクトル差分を通じて時間情報を明示的に符号化する。
本研究では,Frareが状態速度に明示的にアクセスすることなく,状態ベースRLの最適性能を回復することを示す。
我々はまた、FlareがDeepMindコントロールベンチマークスイート内のピクセルベースの挑戦的な連続制御タスクで最先端のパフォーマンスを達成することも示しています。
論文 参考訳(メタデータ) (2021-01-06T03:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。