論文の概要: FC3DNet: A Fully Connected Encoder-Decoder for Efficient Demoir'eing
- arxiv url: http://arxiv.org/abs/2406.14912v1
- Date: Fri, 21 Jun 2024 07:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 14:33:07.189901
- Title: FC3DNet: A Fully Connected Encoder-Decoder for Efficient Demoir'eing
- Title(参考訳): FC3DNet:効率的な復号化のための完全接続エンコーダデコーダ
- Authors: Zhibo Du, Long Peng, Yang Wang, Yang Cao, Zheng-Jun Zha,
- Abstract要約: textbfFully textbfConnected entextbfCoder-detextbfCoder based textbfDemoir'eing textbfNetwork (FC3DNet)を提案する。
FC3DNetはデコーダの各ステージに複数のスケールを持つ機能を包括的に利用する。
- 参考スコア(独自算出の注目度): 50.702284015455405
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Moir\'e patterns are commonly seen when taking photos of screens. Camera devices usually have limited hardware performance but take high-resolution photos. However, users are sensitive to the photo processing time, which presents a hardly considered challenge of efficiency for demoir\'eing methods. To balance the network speed and quality of results, we propose a \textbf{F}ully \textbf{C}onnected en\textbf{C}oder-de\textbf{C}oder based \textbf{D}emoir\'eing \textbf{Net}work (FC3DNet). FC3DNet utilizes features with multiple scales in each stage of the decoder for comprehensive information, which contains long-range patterns as well as various local moir\'e styles that both are crucial aspects in demoir\'eing. Besides, to make full use of multiple features, we design a Multi-Feature Multi-Attention Fusion (MFMAF) module to weigh the importance of each feature and compress them for efficiency. These designs enable our network to achieve performance comparable to state-of-the-art (SOTA) methods in real-world datasets while utilizing only a fraction of parameters, FLOPs, and runtime.
- Abstract(参考訳): Moir\eパターンは、画面の写真を撮るときによく見られる。
カメラデバイスは通常、ハードウェアの性能は限られているが、高解像度の写真を撮る。
しかし,利用者は写真処理時間に敏感であり,復刻法における効率性の課題がほとんど考慮されていない。
ネットワークの速度と結果の質のバランスをとるために, FC3DNet を用いた \textbf{F}ully \textbf{C}onnected en\textbf{C}oder-de\textbf{C}oder based \textbf{D}emoir\'eing \textbf{Net}work (FC3DNet) を提案する。
FC3DNetは、デコーダの各ステージに複数のスケールを持つ機能を利用して、長い範囲のパターンと、どちらもdemoir\eingの重要な側面である様々なローカルmoir\eスタイルを含む包括的情報を提供している。
さらに,複数の特徴をフル活用するために,各特徴の重要性を考慮し,効率よく圧縮するMFMAF (Multi-Feature Multi-Attention Fusion) モジュールを設計した。
これらの設計により、我々のネットワークは、少数のパラメータ、FLOP、ランタイムしか利用せずに、実世界のデータセットにおける最先端(SOTA)メソッドに匹敵するパフォーマンスを達成することができる。
関連論文リスト
- OrientDream: Streamlining Text-to-3D Generation with Explicit Orientation Control [66.03885917320189]
OrientDreamは、テキストプロンプトから効率よくマルチビューで一貫した3D生成のためのカメラ指向条件付きフレームワークである。
本戦略は,2次元テキスト・画像拡散モジュールの事前学習におけるカメラ配向条件付き機能の実装を強調する。
提案手法は,一貫したマルチビュー特性を持つ高品質なNeRFモデルを生成するだけでなく,既存手法よりも最適化速度が大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-06-14T13:16:18Z) - HENet: Hybrid Encoding for End-to-end Multi-task 3D Perception from Multi-view Cameras [45.739224968302565]
本稿では,マルチタスク3次元知覚のためのHENetというエンドツーエンドフレームワークを提案する。
具体的には,短期フレーム用大画像エンコーダと長期フレーム用小画像エンコーダを用いたハイブリッド画像エンコーダを提案する。
各認識タスクの特徴により、異なるグリッドサイズのBEV機能、独立したBEVエンコーダ、タスクデコーダを異なるタスクに活用する。
論文 参考訳(メタデータ) (2024-04-03T07:10:18Z) - U-shaped Vision Mamba for Single Image Dehazing [8.134659382415185]
本論文では,効率的なシングルイメージデハージングネットワークであるVision Mamba(UVM-Net)を紹介する。
The State Space Sequence Models (SSMs)は、長いシーケンスを扱うパワーで知られる新しいディープシークエンスモデルであり、Bi-SSMブロックを設計する。
I/O処理時間なしで325倍の325ドル解像度画像(100FPS)を推測するには,テキスト0.009秒しかかからない。
論文 参考訳(メタデータ) (2024-02-06T16:46:28Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - EasyNet: An Easy Network for 3D Industrial Anomaly Detection [49.26348455493123]
3D異常検出は、産業生産において、新しくて重要なコンピュータビジョンタスクである。
我々は,事前訓練されたモデルやメモリバンクを使わずに,容易に展開可能なネットワーク(EasyNet)を提案する。
実験の結果、EasyNetはトレーニング済みのモデルやメモリバンクを使わずに92.6%の異常検出AUROCを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-26T02:46:50Z) - Spatial-Frequency Attention for Image Denoising [22.993509525990998]
本研究では,長距離依存性を利用した空間周波数アテンションネットワーク(SFANet)を提案する。
複数のdenoisingベンチマークの実験は、SFANetネットワークのリードパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-02-27T09:07:15Z) - Multi-scale frequency separation network for image deblurring [10.511076996096117]
本稿では,マルチスケール周波数分離ネットワーク (MSFS-Net) を用いた画像分解手法を提案する。
MSFS-Netは複数のスケールで画像の低周波・高周波情報をキャプチャする。
ベンチマークデータセットの実験により,提案したネットワークが最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2022-06-01T23:48:35Z) - Rethinking Coarse-to-Fine Approach in Single Image Deblurring [19.195704769925925]
マルチインプットマルチアウトプットU-netを用いた高速かつ高精度なデブロアリングネットワーク設計を提案する。
提案したネットワークは、精度と計算複雑性の両方の観点から最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-11T06:37:01Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。