論文の概要: Inter-Image Pixel Shuffling for Multi-focus Image Fusion
- arxiv url: http://arxiv.org/abs/2603.07120v1
- Date: Sat, 07 Mar 2026 09:11:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.890661
- Title: Inter-Image Pixel Shuffling for Multi-focus Image Fusion
- Title(参考訳): 多焦点画像融合のための画像間シャッフル
- Authors: Huangxing Lin, Rongrong Ma, Cheng Wang,
- Abstract要約: Inter-image Pixel Shuffling (IPS)は、ニューラルネットワークがマルチフォーカス画像融合を学習できるようにする新しい方法である。
IPSは、マルチフォーカス画像のトレーニングをしなくても、既存のマルチフォーカス画像融合法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 6.717503707944545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-focus image fusion aims to combine multiple partially focused images into a single all-in-focus image. Although deep learning has shown promise in this task, its effectiveness is often limited by the scarcity of suitable training data. This paper introduces Inter-image Pixel Shuffling (IPS), a novel method that allows neural networks to learn multi-focus image fusion without requiring actual multi-focus images. IPS reformulates the task as a pixel-wise classification problem, where the goal is to identify the focused pixel from a pixel group at each spatial position. In this method, pixels from a clear optical image are treated as focused, while pixels from a low-pass filtered version of the same image are considered defocused. By randomly shuffling the focused and defocused pixels at identical spatial positions in the original and filtered images, IPS generates training data that preserves spatial structure while mixing focus-defocus information. The model is trained to select the focused pixel from each spatially aligned pixel group, thus learning to reconstruct an all-in-focus image by aggregating sharp content from the input. To further enhance fusion quality, IPS adopts a cross-image fusion network that integrates the localized representation power of convolutional neural networks with the long-range modeling capabilities of state space models. This design effectively leverages both spatial detail and contextual information to produce high-quality fused results. Experimental results indicate that IPS significantly outperforms existing multi-focus image fusion methods, even without training on multi-focus images.
- Abstract(参考訳): 多焦点画像融合は、複数の部分焦点画像を1つのオールインフォーカス画像に組み合わせることを目的としている。
ディープラーニングはこのタスクにおいて有望であることを示しているが、適切なトレーニングデータの不足により、その効果は制限されることが多い。
本稿では、実際のマルチフォーカス画像を必要とすることなく、ニューラルネットワークがマルチフォーカス画像融合を学習できる新しい手法であるInter-image Pixel Shuffling(IPS)を紹介する。
IPSは、タスクをピクセル単位の分類問題として再定義し、各空間位置における画素群から焦点を絞ったピクセルを特定することが目的である。
この方法では、透明な光学画像からの画素を焦点として処理し、同じ画像の低域フィルタ版からの画素を焦点切りとみなす。
IPSは、原画像とフィルタ画像の同一空間位置における焦点と焦点のずれをランダムにシャッフルすることにより、フォーカス・デフォーカス情報を混合しながら空間構造を保存する訓練データを生成する。
モデルは、各空間的に整列した画素群から焦点を絞った画素を選択するように訓練され、入力から鋭い内容を集約することにより、全焦点画像の再構成を学習する。
IPSは、融合品質をさらに高めるために、畳み込みニューラルネットワークの局所化表現力と状態空間モデルの長距離モデリング能力を統合するクロスイメージフュージョンネットワークを採用している。
この設計は、空間的詳細情報と文脈情報の両方を効果的に活用し、高品質な融合結果を生成する。
実験結果から,IPSはマルチフォーカス画像の訓練を伴わずとも,既存のマルチフォーカス画像融合法よりも優れていたことが示唆された。
関連論文リスト
- PCIM: Learning Pixel Attributions via Pixel-wise Channel Isolation Mixing in High Content Imaging [1.1866227238721938]
本研究は,画素属性マップを計算するための新しい手法である,画素ワイドチャネル分離混合(PCIM)を導入する。
PCIMは個々のピクセルを異なる入力チャネルとして扱い、混合層を訓練してこれらのピクセルを混合し、特定の分類を反映する。
このユニークなアプローチは、各画像に対するピクセル属性マップの生成を可能にするが、基礎となる分類ネットワークの選択には依存しない。
論文 参考訳(メタデータ) (2024-12-03T08:48:30Z) - Exploring Multi-view Pixel Contrast for General and Robust Image Forgery Localization [4.8454936010479335]
本稿では,画像フォージェリーローカライゼーションのための多視点Pixel-wise Contrastive Algorithm (MPC)を提案する。
具体的には、まず、教師付きコントラスト損失を伴うバックボーンネットワークを事前訓練する。
次に、クロスエントロピー損失を用いてローカライゼーションヘッドを微調整し、ピクセルローカライザを改良する。
論文 参考訳(メタデータ) (2024-06-19T13:51:52Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Generation and Recombination for Multifocus Image Fusion with Free
Number of Inputs [17.32596568119519]
マルチフォーカス画像融合は光学レンズの限界を克服する有効な方法である。
従来の手法では、2つのソース画像の焦点領域は相補的であり、複数の画像の同時融合が不可能である。
GRFusionでは、各ソースイメージのフォーカス特性検出を独立して実装でき、複数のソースイメージを同時に統合することができる。
論文 参考訳(メタデータ) (2023-09-09T01:47:56Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - FFusionCGAN: An end-to-end fusion method for few-focus images using
conditional GAN in cytopathological digital slides [0.0]
マルチフォーカス画像融合技術は、焦点深度の異なる画像を、ほとんどの物体が焦点を合わせている画像に圧縮する。
本稿では,条件付き生成対向ネットワーク(GAN)に基づく単一焦点画像や少数焦点画像から融合画像を生成する新しい手法を提案する。
ネットワークを生成モデルに統合することにより、生成した融合画像の品質を効果的に向上する。
論文 参考訳(メタデータ) (2020-01-03T02:13:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。