論文の概要: STEREOFOG -- Computational DeFogging via Image-to-Image Translation on a
real-world Dataset
- arxiv url: http://arxiv.org/abs/2312.02344v1
- Date: Mon, 4 Dec 2023 21:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:39:31.059169
- Title: STEREOFOG -- Computational DeFogging via Image-to-Image Translation on a
real-world Dataset
- Title(参考訳): STEREOFOG -- 実世界のデータセット上の画像間変換による計算デフォッギング
- Authors: Anton Pollak, Rajesh Menon
- Abstract要約: 画像から画像への変換(I2I)は機械学習(ML)のサブタイプであり、アプリケーションに非常に大きな可能性を秘めている。
sterEOFOGは10,067ドル(約10,067円)のぼかしと鮮明な画像からなるデータセットである。
pix2pix I2I MLフレームワークをこのデータセットに適用し、最適化する。
- 参考スコア(独自算出の注目度): 0.8702432681310401
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-to-Image translation (I2I) is a subtype of Machine Learning (ML) that
has tremendous potential in applications where two domains of images and the
need for translation between the two exist, such as the removal of fog. For
example, this could be useful for autonomous vehicles, which currently struggle
with adverse weather conditions like fog. However, datasets for I2I tasks are
not abundant and typically hard to acquire. Here, we introduce STEREOFOG, a
dataset comprised of $10,067$ paired fogged and clear images, captured using a
custom-built device, with the purpose of exploring I2I's potential in this
domain. It is the only real-world dataset of this kind to the best of our
knowledge. Furthermore, we apply and optimize the pix2pix I2I ML framework to
this dataset. With the final model achieving an average Complex
Wavelet-Structural Similarity (CW-SSIM) score of $0.76$, we prove the
technique's suitability for the problem.
- Abstract(参考訳): 画像から画像への変換(I2I)は機械学習(ML)のサブタイプであり、画像の2つの領域と、霧の除去などの2つの領域間の翻訳の必要性があるアプリケーションにおいて、大きなポテンシャルを持つ。
例えば、現在霧のような悪天候に苦しむ自動運転車にとって、これは役立つだろう。
しかし、i2iタスクのデータセットは豊富ではなく、通常は取得が難しい。
ここでは,この領域におけるI2Iの可能性を探るため,カスタムデバイスを用いて撮影した10,067ドルのぼかしと鮮明な画像からなるデータセットであるSTEREOFOGを紹介する。
私たちの知る限りでは、この種の現実世界のデータセットはこれが唯一のものです。
さらに、このデータセットにpix2pix i2i mlフレームワークを適用し最適化する。
最終モデルは、平均的な複素ウェーブレット構造類似度(CW-SSIM)スコアを0.76$で達成し、この問題に対するテクニックの適合性を証明した。
関連論文リスト
- Implicit-Zoo: A Large-Scale Dataset of Neural Implicit Functions for 2D Images and 3D Scenes [65.22070581594426]
Implicit-Zoo"は、この分野の研究と開発を容易にするために、数千のGPUトレーニング日を必要とする大規模なデータセットである。
1)トランスモデルのトークン位置を学習すること、(2)NeRFモデルに関して直接3Dカメラが2D画像のポーズを取ること、である。
これにより、画像分類、セマンティックセグメンテーション、および3次元ポーズ回帰の3つのタスクすべてのパフォーマンスが向上し、研究のための新たな道が開けることになる。
論文 参考訳(メタデータ) (2024-06-25T10:20:44Z) - CoFiI2P: Coarse-to-Fine Correspondences for Image-to-Point Cloud Registration [9.57539651520755]
CoFiI2Pは、粗い方法で通信を抽出する新しいI2P登録ネットワークである。
粗いマッチングフェーズでは、均一なグローバル情報と不均一なグローバル情報の両方をキャプチャするために、新しいI2Pトランスフォーマーモジュールが使用される。
微細マッチングモジュールにおいて、スーパーポイント/スーパーピクセル対応のガイダンスにより、ポイント/ピクセル対を確立する。
論文 参考訳(メタデータ) (2023-09-26T04:32:38Z) - DiffI2I: Efficient Diffusion Model for Image-to-Image Translation [108.82579440308267]
画像合成のためのSOTAアプローチとして拡散モデル (DM) が登場した。
DMは画像から画像への変換(I2I)タスクではうまく機能しない。
DiffI2Iは、コンパクトI2I事前抽出ネットワーク(CPEN)、動的I2Iトランス(DI2Iformer)、デノイングネットワーク(denoising network)の3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-08-26T05:18:23Z) - I2P-Rec: Recognizing Images on Large-scale Point Cloud Maps through
Bird's Eye View Projections [18.7557037030769]
位置認識は、完全な自律性を達成するための、自動運転車にとって重要な技術である。
クロスモーダルデータを同じモダリティに変換することで,I2P-Rec法を提案する。
トレーニングデータの小さなセットだけで、I2P-Recはポイントクラウドマップ上のモノクロ画像とステレオ画像のローカライズ時に、80%と90%でトップ1%のリコール率を達成する。
論文 参考訳(メタデータ) (2023-03-02T07:56:04Z) - {\mu}Split: efficient image decomposition for microscopy data [50.794670705085835]
muSplitは、蛍光顕微鏡画像の文脈で訓練された画像分解のための専用アプローチである。
本稿では,大規模な画像コンテキストのメモリ効率向上を実現するメタアーキテクチャである横型文脈化(LC)を提案する。
muSplitを5つの分解タスクに適用し、1つは合成データセットに、もう4つは実際の顕微鏡データから導出する。
論文 参考訳(メタデータ) (2022-11-23T11:26:24Z) - TransferI2I: Transfer Learning for Image-to-Image Translation from Small
Datasets [35.84311497205075]
近年、画像と画像(I2I)の翻訳は成熟しており、高品質のリアル画像を生成することができます。
既存の方法はi2i翻訳に転送学習を使用するが、それでも数百万のパラメータをスクラッチから学習する必要がある。
I2I翻訳のための新しいトランスファー学習(TransferI2I)を提案します。
論文 参考訳(メタデータ) (2021-05-13T12:19:36Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Analogical Image Translation for Fog Generation [114.39308837759329]
AITは、合成クリアウェザー画像、合成霧画像、および真のクリアウェザー画像を用いて学習し、トレーニング中に本物の霧画像を見ることなく、本物のクリアウェザー画像に霧効果を加える。
AITは、合成ドメインにおける教師付きトレーニングスキームと、実ドメインにおけるサイクル整合戦略と、2つのドメイン間の対角的トレーニングスキームと、新しいネットワーク設計とを結合して、このゼロショット画像翻訳能力を実現する。
論文 参考訳(メタデータ) (2020-06-28T14:33:31Z) - TuiGAN: Learning Versatile Image-to-Image Translation with Two Unpaired
Images [102.4003329297039]
教師なし画像画像変換(UI2I)タスクは、ペア画像のない2つのドメイン間のマッピングを学習する。
本研究では,2つの未ペア画像のみをトレーニングし,ワンショットで教師なし学習を行う生成モデルTuiGANを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。