論文の概要: MoCha-Stereo: Motif Channel Attention Network for Stereo Matching
- arxiv url: http://arxiv.org/abs/2404.06842v3
- Date: Tue, 19 Nov 2024 06:09:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:33:53.513701
- Title: MoCha-Stereo: Motif Channel Attention Network for Stereo Matching
- Title(参考訳): MoCha-Stereo: ステレオマッチングのためのMotifチャネルアテンションネットワーク
- Authors: Ziyang Chen, Wei Long, He Yao, Yongjun Zhang, Bingshu Wang, Yongbin Qin, Jia Wu,
- Abstract要約: MoCha-Stereoは学習ベースのステレオマッチングネットワークである。
MoCha-Stereoは、KITTI-2015とKITTI-2012のリフレクティブ・リーダーボードで1位にランクインした。
- 参考スコア(独自算出の注目度): 16.886294268804853
- License:
- Abstract: Learning-based stereo matching techniques have made significant progress. However, existing methods inevitably lose geometrical structure information during the feature channel generation process, resulting in edge detail mismatches. In this paper, the Motif Cha}nnel Attention Stereo Matching Network (MoCha-Stereo) is designed to address this problem. We provide the Motif Channel Correlation Volume (MCCV) to determine more accurate edge matching costs. MCCV is achieved by projecting motif channels, which capture common geometric structures in feature channels, onto feature maps and cost volumes. In addition, edge variations in %potential feature channels of the reconstruction error map also affect details matching, we propose the Reconstruction Error Motif Penalty (REMP) module to further refine the full-resolution disparity estimation. REMP integrates the frequency information of typical channel features from the reconstruction error. MoCha-Stereo ranks 1st on the KITTI-2015 and KITTI-2012 Reflective leaderboards. Our structure also shows excellent performance in Multi-View Stereo. Code is avaliable at https://github.com/ZYangChen/MoCha-Stereo.
- Abstract(参考訳): 学習に基づくステレオマッチング技術は大きな進歩を遂げた。
しかし,既存の手法では,特徴チャネル生成プロセス中に必然的に幾何学的構造情報が失われ,エッジディテールのミスマッチが発生する。
本稿では,この問題を解決するためにMotif Cha}nnel Attention Stereo Matching Network(MoCha-Stereo)を設計する。
より正確なエッジマッチングコストを決定するために,Motif Channel correlation Volume (MCCV) を提供する。
MCCVは、特徴チャネルの一般的な幾何学的構造を特徴マップやコストボリュームに投影することで実現される。
さらに, 再構成誤差マップの有意な特徴チャネルのエッジ変動は, 詳細マッチングにも影響し, 完全分解能差推定の精度を高めるために, 再構成誤差モティフペナルティ (REMP) モジュールを提案する。
REMPは、復元誤差から典型的なチャネル特徴の周波数情報を統合する。
MoCha-Stereoは、KITTI-2015とKITTI-2012のリフレクティブ・リーダーボードで1位にランクインした。
また,Multi-View Stereoでも優れた性能を示す。
コードはhttps://github.com/ZYangChen/MoCha-Stereo.comにある。
関連論文リスト
- MC-Stereo: Multi-peak Lookup and Cascade Search Range for Stereo
Matching [15.786593303130477]
本稿では,MC-Stereoと呼ばれる新しい反復最適化アーキテクチャを提案する。
マルチピークルックアップ戦略により、マッチングにおけるマルチピーク分布問題を緩和する。
粗大な概念をカスケード検索範囲を通じて反復的なフレームワークに統合する。
MC-Stereo は KITTI-2012 と KITTI-2015 のベンチマークで一般に公開されているすべての手法の中で第1位である。
論文 参考訳(メタデータ) (2023-11-04T07:26:27Z) - Joint Channel Estimation and Feedback with Masked Token Transformers in
Massive MIMO Systems [74.52117784544758]
本稿では,CSI行列内の固有周波数領域相関を明らかにするエンコーダデコーダに基づくネットワークを提案する。
エンコーダ・デコーダネットワーク全体がチャネル圧縮に使用される。
提案手法は,共同作業における現状のチャネル推定およびフィードバック技術より優れる。
論文 参考訳(メタデータ) (2023-06-08T06:15:17Z) - Saliency-aware Stereoscopic Video Retargeting [4.332879001008757]
本稿では,教師なし深層学習に基づくステレオビデオネットワークを提案する。
我々のモデルはまず、まず静かな物体を検出し、ステレオフレームの静かな部分の歪みを最小限に抑えるように、すべての物体をゆがめます。
ネットワークを訓練するために、注意機構を用いて左右のビューを融合し、再ターゲットされたフレームを再構成モジュールに供給し、再ターゲットされたフレームをパララックス入力フレームに反転させる。
論文 参考訳(メタデータ) (2023-04-18T09:38:33Z) - Cross-View Hierarchy Network for Stereo Image Super-Resolution [14.574538513341277]
ステレオ画像スーパーレゾリューションは、ビュー間の相補的な情報を活用することにより、高解像度ステレオ画像ペアの品質を向上させることを目的としている。
ステレオ画像超解法(CVHSSR)のためのクロスビュー階層ネットワーク(Cross-View-Hierarchy Network)という新しい手法を提案する。
CVHSSRは、パラメータを減らしながら、他の最先端手法よりも最高のステレオ画像超解像性能を達成する。
論文 参考訳(メタデータ) (2023-04-13T03:11:30Z) - High Fidelity Neural Audio Compression [92.4812002532009]
我々は、ニューラルネットワークを利用した最先端のリアルタイム、高忠実、オーディオを導入する。
ストリーミングエンコーダ-デコーダアーキテクチャと、エンドツーエンドでトレーニングされた量子化潜在空間で構成されている。
単一マルチスケール・スペクトログラム・アドバイザリーを用いて、トレーニングを簡素化し、高速化する。
論文 参考訳(メタデータ) (2022-10-24T17:52:02Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - CAnet: Uplink-aided Downlink Channel Acquisition in FDD Massive MIMO
using Deep Learning [51.72869237847767]
周波数分割二重化システムでは、ダウンリンクチャネル状態情報(CSI)取得方式は高いトレーニングとフィードバックのオーバーヘッドをもたらす。
これらのオーバーヘッドを削減するためにディープラーニングを用いたアップリンク支援ダウンリンクチャネル獲得フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-12T10:12:28Z) - The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image
Classification [67.79883226015824]
きめ細かい画像分類を解く鍵は、微妙な視覚的特徴に対応する識別領域と局所領域を見つけることである。
本稿では,複雑なネットワーク設計や学習機構を必要とせずに,微妙な詳細を育むことができることを示す。
提案した損失関数は、相互チャネル損失(MC-Loss)と呼ばれ、2つのチャネル固有成分から構成される。
論文 参考訳(メタデータ) (2020-02-11T09:12:45Z) - Channel-Attention Dense U-Net for Multichannel Speech Enhancement [21.94418736688929]
我々は、ビームフォーミングを模倣するチャネルアテンション機構をディープアーキテクチャ内に導入する。
我々は,CHiME-3データセットの最先端アプローチに対して,ネットワークの優れた性能を示す。
論文 参考訳(メタデータ) (2020-01-30T19:56:52Z) - DC-WCNN: A deep cascade of wavelet based convolutional neural networks
for MR Image Reconstruction [1.376408511310322]
微細構造を復元するU-Netアーキテクチャの修正を提案する。
提案するネットワークはウェーブレットパケット変換ベースデコーダCNNであり,CNNと呼ばれる残差学習を行う。
また、WCNNとk空間データ忠実度ユニットのカスケードで構成されるディープ・カスケード・フレームワーク(DC-WCNN)を提案する。
論文 参考訳(メタデータ) (2020-01-08T07:04:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。