論文の概要: Efficient Event Stream Super-Resolution with Recursive Multi-Branch Fusion
- arxiv url: http://arxiv.org/abs/2406.19640v1
- Date: Fri, 28 Jun 2024 04:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 17:50:12.924809
- Title: Efficient Event Stream Super-Resolution with Recursive Multi-Branch Fusion
- Title(参考訳): 再帰的マルチブランチ融合によるイベントストリーム超解法
- Authors: Quanmin Liang, Zhilin Huang, Xiawu Zheng, Feidiao Yang, Jun Peng, Kai Huang, Yonghong Tian,
- Abstract要約: 本稿では,正と負のイベントを分離する効率的な再帰的マルチブランチ情報融合ネットワーク(RMFNet)を提案する。
FEMは、正と負の分岐間の情報の融合と交換を効率的に促進する。
提案手法は,2.3倍の加速を伴い,合成データセットと実データセットの17%以上と31%以上の改善を実現している。
- 参考スコア(独自算出の注目度): 30.746523517295007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current Event Stream Super-Resolution (ESR) methods overlook the redundant and complementary information present in positive and negative events within the event stream, employing a direct mixing approach for super-resolution, which may lead to detail loss and inefficiency. To address these issues, we propose an efficient Recursive Multi-Branch Information Fusion Network (RMFNet) that separates positive and negative events for complementary information extraction, followed by mutual supplementation and refinement. Particularly, we introduce Feature Fusion Modules (FFM) and Feature Exchange Modules (FEM). FFM is designed for the fusion of contextual information within neighboring event streams, leveraging the coupling relationship between positive and negative events to alleviate the misleading of noises in the respective branches. FEM efficiently promotes the fusion and exchange of information between positive and negative branches, enabling superior local information enhancement and global information complementation. Experimental results demonstrate that our approach achieves over 17% and 31% improvement on synthetic and real datasets, accompanied by a 2.3X acceleration. Furthermore, we evaluate our method on two downstream event-driven applications, \emph{i.e.}, object recognition and video reconstruction, achieving remarkable results that outperform existing methods. Our code and Supplementary Material are available at https://github.com/Lqm26/RMFNet.
- Abstract(参考訳): 現在のイベントストリーム超解法(ESR)は、イベントストリーム内の正および負のイベントに存在する冗長かつ相補的な情報を見落とし、超解像の直接混合アプローチを用いて、詳細な損失と非効率性をもたらす可能性がある。
これらの課題に対処するために,補完情報抽出のための正・負のイベントを分離し,相互補完と改善を行う,効率的な再帰型マルチブランチ情報融合ネットワーク(RMFNet)を提案する。
特に,機能融合モジュール (FFM) と機能交換モジュール (FEM) を紹介する。
FFMは、近隣のイベントストリーム内のコンテキスト情報の融合のために設計されており、正と負のイベント間の結合関係を利用して、各ブランチにおけるノイズの誤解を緩和する。
FEMは、正および負の分岐間の情報の融合と交換を効率的に促進し、より優れた局所情報拡張とグローバル情報補完を可能にする。
実験の結果,2.3X加速を伴う合成データセットと実データセットの17%以上と31%の改善が得られた。
さらに,2つの下流イベント駆動型アプリケーション,‘emph{i.e.},オブジェクト認識とビデオ再構成について評価し,既存の手法よりも優れた結果を得た。
私たちのコードとSupplementary Materialはhttps://github.com/Lqm26/RMFNet.comで公開されています。
関連論文リスト
- Bilateral Event Mining and Complementary for Event Stream Super-Resolution [28.254644673666903]
Event Stream Super-Resolution (ESR) は、イベントストリームにおける空間分解能の不足に対処することを目的としている。
両イベントマイニング・補完ネットワーク(BMCNet)を提案する。
本手法は,オブジェクト認識やビデオ再構成などのイベントベース下流タスクの性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-16T12:16:25Z) - Feature Decoupling-Recycling Network for Fast Interactive Segmentation [79.22497777645806]
近年のインタラクティブセグメンテーション手法では,入力としてソースイメージ,ユーザガイダンス,従来予測されていたマスクを反復的に取り込んでいる。
本稿では,本質的な相違点に基づいてモデリングコンポーネントを分離するFDRN(Feature Decoupling-Recycling Network)を提案する。
論文 参考訳(メタデータ) (2023-08-07T12:26:34Z) - Efficient Image Super-Resolution with Feature Interaction Weighted
Hybrid Network [100.0415874554937]
本稿では、上記の問題を緩和する特徴相互作用重み付きハイブリッドネットワーク(FIWHN)を提案する。
具体的には、FIWHNは、バックボーンとしてのWDIB(Wide-Residual Distillation Interaction Blocks)のシリーズで構成されている。
CNNモデルに欠けているグローバル機能を補完するため、我々のモデルにTransformerを導入し、CNNとTransformerを組み合わせた新しい方法を模索した。
論文 参考訳(メタデータ) (2022-12-29T05:57:29Z) - FF2: A Feature Fusion Two-Stream Framework for Punctuation Restoration [27.14686854704104]
句読点復元のためのFeature Fusion two-stream framework (FF2)を提案する。
具体的には、あるストリームは、事前訓練された言語モデルを利用してセマンティック機能をキャプチャし、別の補助モジュールは、手元にある機能をキャプチャする。
追加データなしでは、人気のあるベンチマークIWSLTの実験結果はFF2が新しいSOTA性能を達成することを実証している。
論文 参考訳(メタデータ) (2022-11-09T06:18:17Z) - Magic ELF: Image Deraining Meets Association Learning and Transformer [63.761812092934576]
本稿では,CNN と Transformer を統合化して,画像デライニングにおける学習のメリットを活用することを目的とする。
降雨除去と背景復旧を関連づける新しいマルチインプット・アテンション・モジュール (MAM) を提案する。
提案手法(ELF)は,最先端手法(MPRNet)を平均0.25dB向上させる。
論文 参考訳(メタデータ) (2022-07-21T12:50:54Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - Decoupled Side Information Fusion for Sequential Recommendation [6.515279047538104]
シーケンスレコメンデーションのためのデカップリングサイド情報融合(DIF-SR)を提案する。
入力から注目層に側情報を移動し、様々な側情報の注意計算とアイテム表現を分離する。
提案手法は現状のSRモデルより安定して優れている。
論文 参考訳(メタデータ) (2022-04-23T10:53:36Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z) - Deep feature selection-and-fusion for RGB-D semantic segmentation [8.831857715361624]
本研究は,fsfnet (unified and efficient feature selection and-fusion network) を提案する。
FSFNetは、マルチモダリティ情報の明示的な融合に使用される対称クロスモダリティ残留融合モジュールを含む。
最新の手法と比較すると,提案モデルが2つの公開データセットで競合性能を発揮できることを実験的に評価した。
論文 参考訳(メタデータ) (2021-05-10T04:02:32Z) - Deep Multimodal Fusion by Channel Exchanging [87.40768169300898]
本稿では,異なるモードのサブネットワーク間で動的にチャネルを交換するパラメータフリーマルチモーダル融合フレームワークを提案する。
このような交換プロセスの有効性は、畳み込みフィルタを共有してもBN層をモダリティで分離しておくことで保証される。
論文 参考訳(メタデータ) (2020-11-10T09:53:20Z) - Dual Semantic Fusion Network for Video Object Detection [35.175552056938635]
外部ガイダンスのない統合融合フレームワークにおいて,フレームレベルとインスタンスレベルの両方のセマンティクスをフル活用するためのデュアルセマンティクス・フュージョン・ネットワーク(DSFNet)を提案する。
提案したDSFNetは、多粒度融合によりより堅牢な特徴を生成でき、外部ガイダンスの不安定性の影響を避けることができる。
論文 参考訳(メタデータ) (2020-09-16T06:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。