論文の概要: Integration of Communication and Computational Imaging
- arxiv url: http://arxiv.org/abs/2410.19415v2
- Date: Tue, 29 Oct 2024 12:51:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:39:03.481683
- Title: Integration of Communication and Computational Imaging
- Title(参考訳): コミュニケーションとコンピュータイメージングの統合
- Authors: Zhenming Yu, Liming Cheng, Hongyu Huang, Wei Zhang, Liang Lin, Kun Xu,
- Abstract要約: 遠隔認識のためのコミュニケーション・計算画像(ICCI)を統合した新しいフレームワークを提案する。
ICCIフレームワークは、情報ソースの生成から最終ビジョンタスクの実行までの情報損失を最小限に抑えるために、全リンク情報転送最適化を行う。
80km27バンドのハイパースペクトル映像の知覚速度は30fpsである。
- 参考スコア(独自算出の注目度): 49.2442836992307
- License:
- Abstract: Communication enables the expansion of human visual perception beyond the limitations of time and distance, while computational imaging overcomes the constraints of depth and breadth. Although impressive achievements have been witnessed with the two types of technologies, the occlusive information flow between the two domains is a bottleneck hindering their ulterior progression. Herein, we propose a novel framework that integrates communication and computational imaging (ICCI) to break through the inherent isolation between communication and computational imaging for remote perception. By jointly considering the sensing and transmitting of remote visual information, the ICCI framework performs a full-link information transfer optimization, aiming to minimize information loss from the generation of the information source to the execution of the final vision tasks. We conduct numerical analysis and experiments to demonstrate the ICCI framework by integrating communication systems and snapshot compressive imaging systems. Compared with straightforward combination schemes, which sequentially execute sensing and transmitting, the ICCI scheme shows greater robustness against channel noise and impairments while achieving higher data compression. Moreover, an 80 km 27-band hyperspectral video perception with a rate of 30 fps is experimentally achieved. This new ICCI remote perception paradigm offers a highefficiency solution for various real-time computer vision tasks.
- Abstract(参考訳): コミュニケーションにより、時間と距離の制限を超えた人間の視覚知覚の拡大が可能になり、計算画像は深さと幅の制約を克服する。
2つのタイプの技術で目覚ましい成果が見られたが、2つのドメイン間の排他的情報フローは、彼らの内的進歩を妨げるボトルネックである。
本稿では,コミュニケーションとコンピュータイメージング(ICCI)を統合した新しいフレームワークを提案する。
リモート視覚情報のセンシングと送信を共同で検討することにより、ICCIフレームワークは、情報ソースの生成から最終ビジョンタスクの実行までの情報損失を最小限に抑えるために、フルリンク情報転送最適化を行う。
我々は,通信システムと圧縮撮像システムを統合し,ICCIフレームワークを実証するための数値解析と実験を行った。
検出と送信を逐次実行する単純な組み合わせ方式と比較して、ICCI方式は、より高いデータ圧縮を実現しつつ、チャネルノイズや障害に対してより堅牢性を示す。
さらに、30fpsの速度で、80km27帯ハイパースペクトル映像の知覚を実験的に達成した。
この新しいICCIリモート認識パラダイムは、様々なリアルタイムコンピュータビジョンタスクに対して、高効率なソリューションを提供する。
関連論文リスト
- Deep Reinforcement Learning-Based User Scheduling for Collaborative Perception [24.300126250046894]
車両間通信(V2X)を用いて、協調的知覚が知覚精度を向上させることを想定する。
通信資源が限られているため、すべてのユニットが点雲や高精細ビデオなどのセンシングデータを送信するのは現実的ではない。
協調認識のための深層強化学習に基づくV2Xユーザスケジューリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-12T04:45:00Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Goal-Oriented Semantic Communication for Wireless Visual Question Answering [68.75814200517854]
本稿では,視覚質問応答(VQA)の性能向上を目的とした目標指向セマンティックコミュニケーション(GSC)フレームワークを提案する。
本稿では,BBoxを用いた画像意味抽出とランク付け手法を提案し,質問の目的に基づいてセマンティック情報を優先順位付けする。
実験の結果,本フレームワークはAWGNチャネルで49%,Rayleighチャネルで59%の精度で解答精度を向上することがわかった。
論文 参考訳(メタデータ) (2024-11-03T12:01:18Z) - ECAFormer: Low-light Image Enhancement using Cross Attention [11.554554006307836]
低照度画像強調(LLIE)はコンピュータビジョンにおいて重要である。
我々はクロスアテンショントランス(ECAFormer)による階層的相互強化を設計する。
我々は,ECAFormerが複数のベンチマークで競合性能に到達し,PSNRを最適化法よりも3%近く改善したことを示す。
論文 参考訳(メタデータ) (2024-06-19T07:21:31Z) - Benchmarking Semantic Communications for Image Transmission Over MIMO Interference Channels [11.108614988357008]
一般マルチインプット・マルチアウトプット(MIMO)干渉チャネルに対するインターフェクト・ロバスト・セマンティック通信(IRSC)方式を提案する。
このスキームはニューラルネットワーク(NN)に基づくトランシーバの開発を伴い、チャネル状態情報(CSI)を受信機のみ、または送信機と受信機の両方の端で統合する。
実験結果から、IRSC方式は干渉を緩和し、ベースラインアプローチより優れることを示す。
論文 参考訳(メタデータ) (2024-04-10T11:40:22Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - CANS: Communication Limited Camera Network Self-Configuration for
Intelligent Industrial Surveillance [8.360870648463653]
リアルタイムおよびインテリジェントなカメラネットワークによるビデオ監視には、大量のビデオデータによる計算集約的な視覚検出タスクが含まれる。
複数のビデオストリームは、エッジデバイスとカメラネットワークのリンク上で限られた通信リソースを競う。
ビデオ監視の適応型カメラネットワーク自己設定法(CANS)を提案する。
論文 参考訳(メタデータ) (2021-09-13T01:54:33Z) - Multi-image Super Resolution of Remotely Sensed Images using Residual
Feature Attention Deep Neural Networks [1.3764085113103222]
本研究は,マルチイメージ超解像課題に効果的に取り組む新しい残像注意モデル(RAMS)を提案する。
本研究では,3次元畳み込みによる視覚特徴の注意機構を導入し,意識的なデータ融合と情報抽出を実現する。
我々の表現学習ネットワークは、冗長な低周波信号を流すためにネストした残差接続を広範囲に利用している。
論文 参考訳(メタデータ) (2020-07-06T22:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。