論文の概要: Iterative Predictor-Critic Code Decoding for Real-World Image Dehazing
- arxiv url: http://arxiv.org/abs/2503.13147v1
- Date: Mon, 17 Mar 2025 13:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:13.318525
- Title: Iterative Predictor-Critic Code Decoding for Real-World Image Dehazing
- Title(参考訳): リアルタイム画像復調のための反復予測臨界符号復号法
- Authors: Jiayi Fu, Siyu Liu, Zikun Liu, Chun-Le Guo, Hyunhee Park, Ruiqi Wu, Guoqing Wang, Chongyi Li,
- Abstract要約: IPC-Dehaze と略して、実世界の画像デハジングのための新しい反復予測-臨界符号デコーディングフレームワークを提案する。
提案手法では,前回のイテレーションで得られた高品質なコードを用いて,その後のイテレーションにおけるコード予測器の予測を導く。
- 参考スコア(独自算出の注目度): 30.834087480652194
- License:
- Abstract: We propose a novel Iterative Predictor-Critic Code Decoding framework for real-world image dehazing, abbreviated as IPC-Dehaze, which leverages the high-quality codebook prior encapsulated in a pre-trained VQGAN. Apart from previous codebook-based methods that rely on one-shot decoding, our method utilizes high-quality codes obtained in the previous iteration to guide the prediction of the Code-Predictor in the subsequent iteration, improving code prediction accuracy and ensuring stable dehazing performance. Our idea stems from the observations that 1) the degradation of hazy images varies with haze density and scene depth, and 2) clear regions play crucial cues in restoring dense haze regions. However, it is non-trivial to progressively refine the obtained codes in subsequent iterations, owing to the difficulty in determining which codes should be retained or replaced at each iteration. Another key insight of our study is to propose Code-Critic to capture interrelations among codes. The Code-Critic is used to evaluate code correlations and then resample a set of codes with the highest mask scores, i.e., a higher score indicates that the code is more likely to be rejected, which helps retain more accurate codes and predict difficult ones. Extensive experiments demonstrate the superiority of our method over state-of-the-art methods in real-world dehazing.
- Abstract(参考訳): 本稿では,事前学習したVQGANにカプセル化される高品質なコードブックを活用した,実世界の画像復調のための新しい反復予測型コードデコーディングフレームワークを提案する。
単発デコードに依存する従来のコードブックベースの手法とは別に,本手法では,前回のイテレーションで得られた高品質なコードを用いて,その後のイテレーションにおけるコード予測器の予測をガイドし,コード予測精度を向上し,安定した復調性能を確保する。
私たちの考えは、その観察に由来する。
1) ヘイズ画像の劣化は, ヘイズ密度, シーン深度によって異なり,
2)鮮明な地域は濃密なヘイズ地域を回復する上で重要な手段である。
しかし、各イテレーションでどのコードが保持され、置換されるべきかを決定するのが難しいため、後続のイテレーションで取得したコードを段階的に洗練することは簡単ではない。
私たちの研究におけるもうひとつの重要な洞察は、コード間の相互関係をキャプチャするCode-Criticを提案することです。
Code-Criticは、コード相関を評価するために使用され、次に最も高いマスクスコアでコードの集合を再サンプリングする。
実世界のデハージングにおける最先端手法よりも,我々の手法が優れていることを示す実験が盛んである。
関連論文リスト
- Threshold Selection for Iterative Decoding of $(v,w)$-regular Binary Codes [84.0257274213152]
繰り返しビットフリップデコーダは、sparse $(v,w)$-regular符号の効率的な選択である。
閉形式モデルに基づくしきい値決定のための具体的な基準を提案する。
論文 参考訳(メタデータ) (2025-01-23T17:38:22Z) - Collective Bit Flipping-Based Decoding of Quantum LDPC Codes [0.6554326244334866]
可変次数-3(dv-3)QLDPC符号の繰り返し復号化による誤り訂正性能と復号遅延の両方を改善した。
我々の復号方式は、ビットフリップ(BF)デコーディングの修正版、すなわち2ビットビットフリップ(TBF)デコーディングを適用することに基づいている。
論文 参考訳(メタデータ) (2024-06-24T18:51:48Z) - Factor Graph Optimization of Error-Correcting Codes for Belief Propagation Decoding [62.25533750469467]
低密度パリティ・チェック (LDPC) コードは、他の種類のコードに対していくつかの利点がある。
提案手法は,既存の人気符号の復号性能を桁違いに向上させる。
論文 参考訳(メタデータ) (2024-06-09T12:08:56Z) - Learning Linear Block Error Correction Codes [62.25533750469467]
本稿では,バイナリ線形ブロック符号の統一エンコーダデコーダトレーニングを初めて提案する。
また,コード勾配の効率的なバックプロパゲーションのために,自己注意マスキングを行うトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2024-05-07T06:47:12Z) - Towards Accurate Image Coding: Improved Autoregressive Image Generation
with Dynamic Vector Quantization [73.52943587514386]
既存のベクトル量子化(VQ)ベースの自己回帰モデルは、2段階生成パラダイムに従う。
画像領域を可変長符号に符号化する動的量子化VAE(DQ-VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:05Z) - Soft-Labeled Contrastive Pre-training for Function-level Code
Representation [127.71430696347174]
textbfSoft-labeled contrastive pre-training framework with two positive sample construction method。
大規模コードコーパスにおけるコード間の関連性を考慮すると、ソフトラベル付きコントラスト付き事前学習は、きめ細かいソフトラベルを得ることができる。
SCodeRは、7つのデータセットで4つのコード関連タスクに対して、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T05:17:37Z) - Towards Robust Blind Face Restoration with Codebook Lookup Transformer [94.48731935629066]
ブラインドフェイスの修復は、しばしば補助的なガイダンスを必要とする非常に不適切な問題である。
学習した個別のコードブックを小さなプロキシ空間に配置し,ブラインドフェイスの復元をコード予測タスクとすることを示す。
我々は、低品質顔のグローバルな構成とコンテキストをモデル化するトランスフォーマーベースの予測ネットワーク、CodeFormerを提案する。
論文 参考訳(メタデータ) (2022-06-22T17:58:01Z) - Addressing Leakage in Self-Supervised Contextualized Code Retrieval [3.693362838682697]
部分的な入力プログラムのギャップを埋めるのに役立つコードスニペットの検索である、文脈化されたコード検索に対処する。
提案手法は,ソースコードをランダムにコンテキストとターゲットに分割することで,大規模な自己指導型コントラストトレーニングを促進する。
両者の漏えいに対処するため, 相互識別マスキング, 復号化, 構文に整合したターゲットの選択に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-17T12:58:38Z) - Deep Learning to Ternary Hash Codes by Continuation [8.920717493647121]
本稿では,スムーズな関数をネットワークに付加することで,特徴をコードと共同で学習することを提案する。
実験により、生成した符号は、実際に高い精度で取得できることが示されている。
論文 参考訳(メタデータ) (2021-07-16T16:02:08Z) - Trellis Decoding For Qudit Stabilizer Codes And Its Application To Qubit
Topological Codes [3.9962751777898955]
トレリス復号器は強い構造を持ち、古典的符号化理論を用いて結果をガイドとして拡張し、復号グラフの構造特性を計算できる正準形式を示す。
修正されたデコーダは、任意の安定化コード$S$で動作し、コードの正規化子のコンパクトでグラフィカルな表現を構築するワンタイムオフライン、$Sperp$、Viterbiアルゴリズムを使った高速でパラレルなオンライン計算である。
論文 参考訳(メタデータ) (2021-06-15T16:01:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。