論文の概要: Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth
- arxiv url: http://arxiv.org/abs/2003.12779v3
- Date: Fri, 28 Aug 2020 11:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:57:25.304539
- Title: Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth
- Title(参考訳): real-mff: ground truth を用いた大規模多焦点画像データセット
- Authors: Juncheng Zhang, Qingmin Liao, Shaojun Liu, Haoyu Ma, Wenming Yang,
Jing-Hao Xue
- Abstract要約: 我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
- 参考スコア(独自算出の注目度): 58.226535803985804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-focus image fusion, a technique to generate an all-in-focus image from
two or more partially-focused source images, can benefit many computer vision
tasks. However, currently there is no large and realistic dataset to perform
convincing evaluation and comparison of algorithms in multi-focus image fusion.
Moreover, it is difficult to train a deep neural network for multi-focus image
fusion without a suitable dataset. In this letter, we introduce a large and
realistic multi-focus dataset called Real-MFF, which contains 710 pairs of
source images with corresponding ground truth images. The dataset is generated
by light field images, and both the source images and the ground truth images
are realistic. To serve as both a well-established benchmark for existing
multi-focus image fusion algorithms and an appropriate training dataset for
future development of deep-learning-based methods, the dataset contains a
variety of scenes, including buildings, plants, humans, shopping malls, squares
and so on. We also evaluate 10 typical multi-focus algorithms on this dataset
for the purpose of illustration.
- Abstract(参考訳): 2つ以上の部分に焦点を当てたソースイメージからオールインフォーカス画像を生成する技術であるマルチフォーカス画像融合は、多くのコンピュータビジョンタスクに有用である。
しかし、現在マルチフォーカス画像融合におけるアルゴリズムの説得力のある評価と比較を行うための大規模で現実的なデータセットは存在しない。
さらに、適切なデータセットを使わずに、多焦点画像融合のためのディープニューラルネットワークを訓練することは困難である。
このレターでは,実写mffと呼ばれる大規模かつ現実的な多点データセットを導入し,対応する基底真理画像を含む710対のソース画像を含む。
データセットは光場画像によって生成され、ソース画像と地上真実画像の両方がリアルである。
既存のマルチフォーカス画像融合アルゴリズムの確立されたベンチマークと、ディープラーニングベースのメソッドの今後の開発のための適切なトレーニングデータセットの両方を提供するため、このデータセットは、建物、植物、人間、ショッピングモール、広場などを含むさまざまなシーンを含む。
また,このデータセット上の10の典型的なマルチフォーカスアルゴリズムをイラストレーションのために評価した。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Bridging the Gap between Multi-focus and Multi-modal: A Focused
Integration Framework for Multi-modal Image Fusion [5.417493475406649]
MMIF(Multi-Modal Image fusion)は、異なるモダリティ画像からの貴重な情報を融合画像に統合する。
本稿では,協調型統合とモダリティ情報抽出のためのMMIFフレームワークを提案する。
提案アルゴリズムは、視覚知覚と定量的評価において最先端の手法を超越することができる。
論文 参考訳(メタデータ) (2023-11-03T12:58:39Z) - EDIS: Entity-Driven Image Search over Multimodal Web Content [95.40238328527931]
textbfEntity-textbfDriven textbfImage textbfSearch (EDIS)は、ニュース領域におけるクロスモーダル画像検索のためのデータセットである。
EDISは、実際の検索エンジンの結果から100万のWebイメージとキュレートされたデータセットで構成され、各イメージはテキスト記述と組み合わせられている。
論文 参考訳(メタデータ) (2023-05-23T02:59:19Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - TransFuse: A Unified Transformer-based Image Fusion Framework using
Self-supervised Learning [5.849513679510834]
画像融合(英: Image fusion)とは、複数のソース画像からの情報を補完情報と統合し、単一の画像の豊かさを改善する技術である。
2段階の手法では、大規模な自然言語データセット上でエンコーダ・デコーダネットワークをトレーニングすることで、タスク固有の大量のトレーニングデータの必要性を回避する。
本稿では, ネットワークがタスク固有の特徴を学習することを奨励する, 破壊再構成に基づく自己指導型学習手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T07:30:44Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - MFFW: A new dataset for multi-focus image fusion [24.91107749755963]
本稿では、MFFW in the wild(MFFW)と呼ばれる新しいデータセットを構築する。
インターネット上で収集された19対のマルチフォーカス画像を含んでいる。
実験により、MFFWデータセットの最先端手法のほとんどは、良好な融合画像を生成することができないことが示された。
論文 参考訳(メタデータ) (2020-02-12T03:35:37Z) - FFusionCGAN: An end-to-end fusion method for few-focus images using
conditional GAN in cytopathological digital slides [0.0]
マルチフォーカス画像融合技術は、焦点深度の異なる画像を、ほとんどの物体が焦点を合わせている画像に圧縮する。
本稿では,条件付き生成対向ネットワーク(GAN)に基づく単一焦点画像や少数焦点画像から融合画像を生成する新しい手法を提案する。
ネットワークを生成モデルに統合することにより、生成した融合画像の品質を効果的に向上する。
論文 参考訳(メタデータ) (2020-01-03T02:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。