論文の概要: Tell Me What You See: Text-Guided Real-World Image Denoising
- arxiv url: http://arxiv.org/abs/2312.10191v1
- Date: Fri, 15 Dec 2023 20:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:58:50.632579
- Title: Tell Me What You See: Text-Guided Real-World Image Denoising
- Title(参考訳): テキストガイドでリアル世界のイメージをデノイング
- Authors: Erez Yosef, Raja Giryes
- Abstract要約: 画像キャプション情報の追加は、合成画像と実画像の両方の低照度条件における画像再構成を大幅に改善する。
画像キャプション情報の追加は、合成画像と実画像の両方の低照度条件における画像再構成を大幅に改善することを示す。
- 参考スコア(独自算出の注目度): 37.134017226646414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image reconstruction in low-light conditions is a challenging problem. Many
solutions have been proposed for it, where the main approach is trying to learn
a good prior of natural images along with modeling the true statistics of the
noise in the scene. In the presence of very low lighting conditions, such
approaches are usually not enough, and additional information is required,
e.g., in the form of using multiple captures. In this work, we suggest as an
alternative to add a description of the scene as prior, which can be easily
done by the photographer who is capturing the scene. Using a text-conditioned
diffusion model, we show that adding image caption information improves
significantly the image reconstruction in low-light conditions on both
synthetic and real-world images.
- Abstract(参考訳): 低照度条件における画像再構成は難しい問題である。
多くの解決策が提案されているが、主なアプローチは自然画像の優れた事前学習と、シーンのノイズの真の統計をモデル化することである。
非常に低い照明条件下では、そのようなアプローチは通常不十分であり、例えば複数のキャプチャを使用するという形で追加情報が必要である。
本研究は,シーンを撮影している写真家が簡単に行えるように,シーンの説明を事前に付加する代替案を提案する。
テキスト条件拡散モデルを用いて,画像キャプション情報の追加により,合成画像と実世界画像の両方において,低照度条件における画像再構成が著しく向上することを示す。
関連論文リスト
- Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では、露光ブラケット写真を利用して復元・拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - HashCC: Lightweight Method to Improve the Quality of the Camera-less
NeRF Scene Generation [0.0]
本来のアルゴリズムが意味のあるシーン表現を学習するための重要な要件は、データセット内の各画像のカメラポーズ情報である。
現在のアプローチでは、シーンの神経表現を学習しながら、近似カメラの位置を学習することで、この仮定を適度な成功で周航しようと試みている。
これは複雑なカメラモデルが必要で、長く複雑なトレーニングプロセスを引き起こしたり、描画シーンのテクスチャやシャープなディテールが欠如している。
本研究では,Hash Color Correction (HashCC)を紹介した。HashCCはニューラルラジアンスフィールドのレンダリング画像の品質を向上させる軽量な手法で,画像セットのカメラ位置が不明な状況にも適用可能である。
論文 参考訳(メタデータ) (2023-05-07T14:53:45Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z) - DiffDreamer: Towards Consistent Unsupervised Single-view Scene
Extrapolation with Conditional Diffusion Models [91.94566873400277]
DiffDreamerは、長いカメラ軌跡を描いた新しいビューを合成できる教師なしのフレームワークである。
画像条件付き拡散モデルでは, 従来のGAN法よりも一貫性を保ちながら, 長距離シーン外挿を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2022-11-22T10:06:29Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Extremely Low-light Image Enhancement with Scene Text Restoration [29.08094129045479]
シーンテキストを正確に復元する新しい画像強調フレームワークを提案する。
我々は,自己調整型アテンションマップ,エッジマップ,新たなテキスト検出損失を用いる。
提案手法は,画像復元,テキスト検出,テキストスポッティングにおいて,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-04-01T16:10:14Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。