論文の概要: DichroGAN: Towards Restoration of in-air Colours of Seafloor from Satellite Imagery
- arxiv url: http://arxiv.org/abs/2601.00194v1
- Date: Thu, 01 Jan 2026 04:03:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.300651
- Title: DichroGAN: Towards Restoration of in-air Colours of Seafloor from Satellite Imagery
- Title(参考訳): DichroGAN:衛星画像による海底の大気中の色復元に向けて
- Authors: Salma Gonzalez-Sabbagh, Antonio Robles-Kelly, Shang Gao,
- Abstract要約: この目的のために設計された条件付き生成対向ネットワーク(cGAN)であるDichroGANを提案する。
DichroGANは、PRISMA衛星画像から派生したコンパクトなデータセットに基づいて訓練され、対応するスペクトルバンドとマスクと組み合わせたRGB画像で構成されている。
衛星と水中の両方の実験により、DichroGANは最先端の水中修復技術と比較して競争力を発揮することが示された。
- 参考スコア(独自算出の注目度): 5.9267969536850265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recovering the in-air colours of seafloor from satellite imagery is a challenging task due to the exponential attenuation of light with depth in the water column. In this study, we present DichroGAN, a conditional generative adversarial network (cGAN) designed for this purpose. DichroGAN employs a two-steps simultaneous training: first, two generators utilise a hyperspectral image cube to estimate diffuse and specular reflections, thereby obtaining atmospheric scene radiance. Next, a third generator receives as input the generated scene radiance containing the features of each spectral band, while a fourth generator estimates the underwater light transmission. These generators work together to remove the effects of light absorption and scattering, restoring the in-air colours of seafloor based on the underwater image formation equation. DichroGAN is trained on a compact dataset derived from PRISMA satellite imagery, comprising RGB images paired with their corresponding spectral bands and masks. Extensive experiments on both satellite and underwater datasets demonstrate that DichroGAN achieves competitive performance compared to state-of-the-art underwater restoration techniques.
- Abstract(参考訳): 衛星画像から海底の色を再現することは、水柱の奥深くにある光の指数的な減衰のために難しい課題である。
本研究では,この目的のために設計された条件付き生成対向ネットワーク(cGAN)であるDichroGANについて述べる。
DichroGANは2段階の同時訓練を行っている: まず、2つのジェネレータが超スペクトル像立方体を利用して拡散とスペクトル反射を推定し、それによって大気環境の放射率を得る。
次に、第3のジェネレータは、各スペクトル帯域の特徴を含む生成されたシーン放射を入力として受信し、第4のジェネレータは水中光伝送を推定する。
これらの発電機は光吸収と散乱の影響を取り除くために協力し、水中画像形成方程式に基づいて海底の色を復元する。
DichroGANは、PRISMA衛星画像から派生したコンパクトなデータセットに基づいて訓練され、対応するスペクトルバンドとマスクと組み合わせたRGB画像で構成されている。
衛星と水中のデータセットの大規模な実験により、DichroGANは最先端の水中修復技術と比較して競争力を発揮することが示された。
関連論文リスト
- A Generative Data Framework with Authentic Supervision for Underwater Image Restoration and Enhancement [51.382274157144714]
我々は、未ペア画像から画像への変換に基づく生成データフレームワークを開発する。
このフレームワークは、正確な地上構造ラベルを持つ合成データセットを構成する。
実験により、我々の合成データに基づいてトレーニングされたモデルが、既存のベンチマークでトレーニングされたモデルに匹敵する、あるいは優れた色復元と一般化性能が得られることが示された。
論文 参考訳(メタデータ) (2025-11-18T14:20:17Z) - S2ML: Spatio-Spectral Mutual Learning for Depth Completion [56.26679539288063]
RGB-Dカメラで撮影した生深度画像は、弱い反射、境界影、アーティファクトによって不完全な深度値に悩まされることが多い。
既存の手法では、画像領域の深度補完によってこの問題に対処するが、それらは生の深度画像の物理的特性を見落としている。
本研究では,空間領域と周波数領域の両方の利点を両立させるため,S2ML(Spatio-Spectral Mutual Learning framework)を提案する。
論文 参考訳(メタデータ) (2025-11-08T15:01:55Z) - Sea-Undistort: A Dataset for Through-Water Image Restoration in High Resolution Airborne Bathymetric Mapping [2.725507329935916]
我々は,Blenderで描画された1200対の512x512透水シーンの総合的な合成データセットであるSea-Undistortを紹介した。
それぞれのペアは歪みのない、歪んだ景色で構成されており、太陽の輝き、波、様々な海底に散らばる散乱といった現実的な水の影響を特徴としている。
カメラパラメータや太陽位置、平均深度といった画像毎のメタデータと合わせて、Sea-Undistortは実際の環境では不可能な教師付きトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-08-11T08:43:29Z) - U2NeRF: Unsupervised Underwater Image Restoration and Neural Radiance Fields [20.30434798359958]
マルチビュー幾何学に基づく新しいビューのレンダリングと復元を同時に行うトランスフォーマーベースのアーキテクチャであるUnsupervised Underwater Neural Radiance Field U2NeRFを提案する。
我々は,12の水中シーンからなる水中ビュー合成UVSデータセットを,合成生成データと実世界のデータの両方を含む形でリリースする。
論文 参考訳(メタデータ) (2024-11-25T08:02:28Z) - WaterHE-NeRF: Water-ray Tracing Neural Radiance Fields for Underwater
Scene Reconstruction [6.036702530679703]
本研究では,3次元空間における色,密度,照度減衰を正確にエンコードするRetinex理論による新しい水線トレーシング場を開発する。
WaterHE-NeRFは、その発光減衰機構を通じて、劣化画像と鮮明な多視点画像の両方を生成する。
論文 参考訳(メタデータ) (2023-12-12T02:55:14Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z) - CARNet: Collaborative Adversarial Resilience for Robust Underwater Image Enhancement and Perception [16.135354859458758]
我々は,CARNetと呼ばれる協調対向レジリエンスネットワークを導入し,水中画像の強調とそれに続く検出を行う。
本研究ではまず,水中画像から攻撃を分離する強力な知覚能力を持つ可逆ネットワークを導入する。
また,異なるタイプの攻撃に対するネットワークの堅牢性を高めるために,二段階攻撃最適化手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - DGD-cGAN: A Dual Generator for Image Dewatering and Restoration [4.944086064811032]
二重発生器脱水cGAN (DGD-cGAN) は水柱によって誘導されるヘイズと色を除去する。
実験の結果,DGD-cGANは最先端の手法に比べて改善の限界を保っていることがわかった。
論文 参考訳(メタデータ) (2022-11-18T04:42:52Z) - Underwater Image Enhancement via Medium Transmission-Guided Multi-Color
Space Embedding [88.46682991985907]
本稿では,Ucolor と呼ばれる媒体透過誘導多色空間埋め込みによる水中画像強調ネットワークを提案する。
当社のネットワークは、複数の色空間を埋め込むことにより、水中画像の視覚的品質を効果的に改善できます。
論文 参考訳(メタデータ) (2021-04-27T07:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。