論文の概要: Deshadow-Anything: When Segment Anything Model Meets Zero-shot shadow
removal
- arxiv url: http://arxiv.org/abs/2309.11715v3
- Date: Wed, 3 Jan 2024 02:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 11:34:31.477155
- Title: Deshadow-Anything: When Segment Anything Model Meets Zero-shot shadow
removal
- Title(参考訳): deshadow-anything: segment anythingモデルがゼロショットシャドー削除を満たす
- Authors: Xiao Feng Zhang, Tian Yi Song, Jia Wei Yao
- Abstract要約: 画像シャドー除去を実現するために,大規模データセットの一般化を考慮したDeshadow-Anythingを開発した。
拡散モデルは画像の端やテクスチャに沿って拡散し、画像の詳細を保存しながら影を取り除くのに役立つ。
シャドウ除去タスクの実験では、これらの手法が画像復元性能を効果的に向上できることが示されている。
- 参考スコア(独自算出の注目度): 8.555176637147648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segment Anything (SAM), an advanced universal image segmentation model
trained on an expansive visual dataset, has set a new benchmark in image
segmentation and computer vision. However, it faced challenges when it came to
distinguishing between shadows and their backgrounds. To address this, we
developed Deshadow-Anything, considering the generalization of large-scale
datasets, and we performed Fine-tuning on large-scale datasets to achieve image
shadow removal. The diffusion model can diffuse along the edges and textures of
an image, helping to remove shadows while preserving the details of the image.
Furthermore, we design Multi-Self-Attention Guidance (MSAG) and adaptive input
perturbation (DDPM-AIP) to accelerate the iterative training speed of
diffusion. Experiments on shadow removal tasks demonstrate that these methods
can effectively improve image restoration performance.
- Abstract(参考訳): Segment Anything (SAM)は、拡張ビジュアルデータセットに基づいてトレーニングされた高度なユニバーサルイメージセグメンテーションモデルであり、画像セグメンテーションとコンピュータビジョンの新しいベンチマークを設定した。
しかし、影とその背景を区別するという問題に直面した。
そこで本研究では,大規模データセットの一般化を考慮し,大規模データセットの微調整を行い,画像シャドー除去を実現する。
拡散モデルは、画像のエッジとテクスチャに沿って拡散し、画像の詳細を維持しながら影を取り除くのに役立つ。
さらに,適応入力摂動(DDPM-AIP)とマルチセルフアテンションガイダンス(MSAG)を設計し,拡散の反復的トレーニング速度を高速化する。
シャドウ除去タスクの実験により、これらの手法が画像復元性能を効果的に向上できることが示されている。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - Soft-Hard Attention U-Net Model and Benchmark Dataset for Multiscale Image Shadow Removal [2.999888908665659]
本研究では,マルチスケールシャドウ除去に着目した,ソフトハード注意U-net(SHAU)という新しいディープラーニングアーキテクチャを提案する。
マルチスケールシャドウ除去データセット(MSRD)と呼ばれる新しい合成データセットを提供し、複数のスケールの複雑なシャドウパターンを含んでいる。
その結果,SHAUは,様々なベンチマークデータセット間で,関連する最先端のシャドウ除去方法に対して有効であることが示された。
論文 参考訳(メタデータ) (2024-08-07T12:42:06Z) - Single-Image Shadow Removal Using Deep Learning: A Comprehensive Survey [78.84004293081631]
影のパターンは任意で変化しており、しばしば非常に複雑な痕跡構造を持つ。
影による劣化は空間的に不均一であり、照度と影と非陰影領域間の色に矛盾が生じている。
この分野での最近の開発は、主にディープラーニングベースのソリューションによって進められている。
論文 参考訳(メタデータ) (2024-07-11T20:58:38Z) - Shadow Generation for Composite Image Using Diffusion model [16.316311264197324]
我々は、自然影画像の知識が豊富な基礎モデルに頼っている。
まず、タスクにControlNetを適応させ、次にシャドーインテンシティを改善するためにインテンシティ変調モジュールを提案する。
DESOBAとDESOBAv2データセットと実合成画像の両方の実験結果から,影生成タスクにおけるモデルの有効性が示された。
論文 参考訳(メタデータ) (2024-03-22T14:27:58Z) - Latent Feature-Guided Diffusion Models for Shadow Removal [50.02857194218859]
本稿では,拡散過程における影領域の詳細を段階的に洗練する,有望なアプローチとして拡散モデルの利用を提案する。
シャドウフリー画像の特徴を継承する学習された潜在特徴空間を条件付けすることで,この処理を改善する。
AISTDデータセット上でRMSEを13%向上させる手法の有効性を示す。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - Progressive Recurrent Network for Shadow Removal [99.1928825224358]
シングルイメージのシャドー削除は、まだ解決されていない重要なタスクである。
既存のディープラーニングベースのアプローチのほとんどは、シャドウを直接削除しようとするが、シャドウをうまく扱えない。
本稿では,影を段階的に除去する簡易かつ効果的なプログレッシブ・リカレント・ネットワーク(PRNet)を提案する。
論文 参考訳(メタデータ) (2023-11-01T11:42:45Z) - Learning Physical-Spatio-Temporal Features for Video Shadow Removal [42.95422940263425]
データ駆動型ビデオシャドウ除去モデルであるedNetを提案する。
具体的には、複雑な照明テクスチャを持つシーンに適用可能な局所照明推定を行うために、専用の物理的ブランチが設けられた。
シャドウビデオと組み合わせたデータセットの欠如に対処するため、シャドウのスイッチを制御することで、人気のあるゲームGTAVの助けを借りてデータセットを合成する。
論文 参考訳(メタデータ) (2023-03-16T14:55:31Z) - Leveraging Inpainting for Single-Image Shadow Removal [29.679542372017373]
本研究では,画像インペイントデータセットにおける影除去ネットワークの事前学習により,影の残差を著しく低減できることを示す。
単純エンコーダ・デコーダネットワークは、10%のシャドウとシャドウフリーの画像ペアで、最先端の手法で競合する復元品質を得る。
これらの観測から着想を得て,影の除去と画像の塗装を両立させる適応融合タスクとして,影の除去を定式化する。
論文 参考訳(メタデータ) (2023-02-10T16:21:07Z) - ShadowDiffusion: When Degradation Prior Meets Diffusion Model for Shadow
Removal [74.86415440438051]
画像と劣化先行情報を統合した統合拡散フレームワークを提案する。
SRDデータセット上でのPSNRは31.69dBから34.73dBへと大幅に向上した。
論文 参考訳(メタデータ) (2022-12-09T07:48:30Z) - Self-Supervised Shadow Removal [130.6657167667636]
条件付きマスクを用いた自己教師付き学習による教師なしシングルイメージシャドウ除去ソリューションを提案する。
既存の文献とは対照的に、一対のシャドウとシャドウのない画像は必要とせず、自己スーパービジョンに頼り、画像にシャドウを取り除いて追加するために深いモデルを共同で学習する。
論文 参考訳(メタデータ) (2020-10-22T11:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。