論文の概要: Dynamic Bandwidth Allocation for Hybrid Event-RGB Transmission
- arxiv url: http://arxiv.org/abs/2506.20222v1
- Date: Wed, 25 Jun 2025 08:09:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.65621
- Title: Dynamic Bandwidth Allocation for Hybrid Event-RGB Transmission
- Title(参考訳): ハイブリッドイベントRGB伝送のための動的帯域割り当て
- Authors: Pujing Yang, Guangyi Zhang, Yunlong Cai, Lei Yu, Guanding Yu,
- Abstract要約: イベントカメラは、非常に低レイテンシでピクセルレベルの強度変化をキャプチャする。
RGBカメラと組み合わせて、広範囲の視覚関連アプリケーションに利用されている。
本稿では,リアルタイムの劣化を並列に達成しつつ,両ソースの効率的な復元性能を維持する送信方式を提案する。
- 参考スコア(独自算出の注目度): 30.60030333076227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras asynchronously capture pixel-level intensity changes with extremely low latency. They are increasingly used in conjunction with RGB cameras for a wide range of vision-related applications. However, a major challenge in these hybrid systems lies in the transmission of the large volume of triggered events and RGB images. To address this, we propose a transmission scheme that retains efficient reconstruction performance of both sources while accomplishing real-time deblurring in parallel. Conventional RGB cameras and event cameras typically capture the same scene in different ways, often resulting in significant redundant information across their outputs. To address this, we develop a joint event and image (E-I) transmission framework to eliminate redundancy and thereby optimize channel bandwidth utilization. Our approach employs Bayesian modeling and the information bottleneck method to disentangle the shared and domain-specific information within the E-I inputs. This disentangled information bottleneck framework ensures both the compactness and informativeness of extracted shared and domain-specific information. Moreover, it adaptively allocates transmission bandwidth based on scene dynamics, i.e., more symbols are allocated to events for dynamic details or to images for static information. Simulation results demonstrate that the proposed scheme not only achieves superior reconstruction quality compared to conventional systems but also delivers enhanced deblurring performance.
- Abstract(参考訳): イベントカメラは、非常に低レイテンシでピクセルレベルの強度変化を非同期にキャプチャする。
RGBカメラと組み合わせて、広範囲の視覚関連アプリケーションに利用されている。
しかしながら、これらのハイブリッドシステムにおける大きな課題は、大量のトリガイベントとRGBイメージの伝送である。
そこで本稿では,リアルタイムの遅延を並列に処理しながら,両ソースの効率的な再構築性能を維持する送信方式を提案する。
従来のRGBカメラとイベントカメラは、通常、異なる方法で同じシーンをキャプチャする。
そこで我々は,共用イベントと画像(E-I)伝送フレームワークを開発し,冗長性を排除し,チャネル帯域幅の利用を最適化する。
提案手法はベイズモデルと情報ボトルネック法を用いて,E-I入力内の共有情報とドメイン固有情報をアンタングル化する。
この歪んだ情報ボトルネックフレームワークは、抽出された共有情報とドメイン固有情報のコンパクト性と情報性の両方を保証する。
さらに、シーンダイナミクスに基づいて送信帯域幅を適応的に割り当て、ダイナミックディテールのイベントや静的情報の画像により多くのシンボルを割り当てる。
シミュレーションの結果,提案手法は従来のシステムに比べて優れた復元品質を実現するだけでなく,劣化性能も向上することが示された。
関連論文リスト
- Event-Enhanced Blurry Video Super-Resolution [52.894824081586776]
我々は,低解像度(LR)とぼやけた入力から高解像度(HR)ビデオを生成することを目的とした,ぼやけたビデオ超解像(BVSR)の課題に取り組む。
現在のBVSR法は、しばしば高解像度でシャープな詳細を復元するのに失敗し、顕著なアーティファクトとジッターを生み出した。
本稿では,BVSR にイベント信号を導入し,新しいイベント強化ネットワーク Ev-DeVSR を提案する。
論文 参考訳(メタデータ) (2025-04-17T15:55:41Z) - Hierarchy-Aware and Channel-Adaptive Semantic Communication for Bandwidth-Limited Data Fusion [27.049330099874396]
本稿では,帯域幅制限データ融合のための階層認識とチャネル適応型セマンティック通信手法を提案する。
超解像に必要な画像の全体構造情報と詳細の両方を保持するために階層的相関モジュールを提案する。
深い特徴と浅い特徴を動的に統合し,伝達するために,Transformerに基づくチャネル適応型アテンション機構を提案する。
論文 参考訳(メタデータ) (2025-03-22T14:02:52Z) - Joint Transmission and Deblurring: A Semantic Communication Approach Using Events [30.60030333076227]
効率的な画像伝送のための有望な技術として,ディープラーニングに基づくジョイントソースチャネル符号化(JSCC)が登場している。
既存のアプローチでは、カメラの揺れや動きの速い物体によって引き起こされる動きのぼやけなど、現実世界の課題を見越して、鮮明なイメージの伝達に重点を置いている。
本稿では,限られた帯域幅で高品質な再構成を実現することを目的とした,ぼやけた画像やイベントを共同送信するための新しいJ SCCフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-16T09:07:01Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - Deformable Convolutions and LSTM-based Flexible Event Frame Fusion
Network for Motion Deblurring [7.187030024676791]
イベントカメラは、非同期データシーケンスを生成するという点で、従来のRGBカメラとは異なる。
RGBカメラは固定レートですべてのフレームをキャプチャするが、イベントカメラはシーンの変化のみをキャプチャし、スパースと非同期のデータ出力をもたらす。
最近のCNNベースのデブロアリングソリューションは、イベントデータの蓄積に基づいて、複数の2次元イベントフレームを生成する。
特に、照明条件や現場における動きの速い物体の存在といった要因によって露光時間が異なるシナリオでは特に有用である。
論文 参考訳(メタデータ) (2023-06-01T15:57:12Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。