論文の概要: Augmented Equivariant Attention Networks for Microscopy Image
Reconstruction
- arxiv url: http://arxiv.org/abs/2011.03633v4
- Date: Thu, 2 Jun 2022 23:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:08:08.239966
- Title: Augmented Equivariant Attention Networks for Microscopy Image
Reconstruction
- Title(参考訳): 顕微鏡画像再構成のための拡張等変アテンションネットワーク
- Authors: Yaochen Xie, Yu Ding, Shuiwang Ji
- Abstract要約: 高品質または高解像度の電子顕微鏡(EM)と蛍光顕微鏡(FM)の画像を取るのに時間がかかり、費用がかかる。
深層学習により、様々な種類の顕微鏡画像再構成のための画像から画像への変換タスクを実行できる。
本稿では,画像間の依存関係を捕捉する機能を持つ拡張同変アテンションネットワーク(AEANets)を提案する。
- 参考スコア(独自算出の注目度): 44.965820245167635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is time-consuming and expensive to take high-quality or high-resolution
electron microscopy (EM) and fluorescence microscopy (FM) images. Taking these
images could be even invasive to samples and may damage certain subtleties in
the samples after long or intense exposures, often necessary for achieving
high-quality or high resolution in the first place. Advances in deep learning
enable us to perform image-to-image transformation tasks for various types of
microscopy image reconstruction, computationally producing high-quality images
from the physically acquired low-quality ones. When training image-to-image
transformation models on pairs of experimentally acquired microscopy images,
prior models suffer from performance loss due to their inability to capture
inter-image dependencies and common features shared among images. Existing
methods that take advantage of shared features in image classification tasks
cannot be properly applied to image reconstruction tasks because they fail to
preserve the equivariance property under spatial permutations, something
essential in image-to-image transformation. To address these limitations, we
propose the augmented equivariant attention networks (AEANets) with better
capability to capture inter-image dependencies, while preserving the
equivariance property. The proposed AEANets captures inter-image dependencies
and shared features via two augmentations on the attention mechanism, which are
the shared references and the batch-aware attention during training. We
theoretically derive the equivariance property of the proposed augmented
attention model and experimentally demonstrate its consistent superiority in
both quantitative and visual results over the baseline methods.
- Abstract(参考訳): 高品質または高解像度の電子顕微鏡(EM)と蛍光顕微鏡(FM)の画像を取るのに時間と費用がかかる。
これらの画像を取ることは、サンプルに対してさらに侵入的になり、長時間または激しい露光の後、サンプルの微妙さを損なう可能性がある。
深層学習の進歩により、様々な種類の顕微鏡画像再構成のための画像-画像変換タスクを実行し、物理的に取得された低品質の画像から高品質の画像を生成する。
実験的に取得した顕微鏡画像のペア上で画像間変換モデルをトレーニングする場合、画像間の依存関係と画像間で共有される共通特徴をキャプチャできないため、以前のモデルはパフォーマンス損失に悩まされる。
画像分類タスクにおける共有特徴を生かした既存の手法は、空間的置換の下での同値性維持に失敗するため、画像再構成タスクには適切に適用できない。
これらの制限に対処するために,画像間依存性をキャプチャする能力が向上し,同値性を維持しつつ,拡張同変注意ネットワーク(aeanets)を提案する。
提案されたAEANetsは、トレーニング中の共有参照とバッチアウェアアテンションであるアテンションメカニズムの2つの拡張を通じて、イメージ間の依存関係と共有機能をキャプチャする。
提案手法の等価性は理論的に導出し,ベースライン法よりも定量的および視覚的結果に一貫した優位性を実験的に示す。
関連論文リスト
- Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Adaptive Input-image Normalization for Solving the Mode Collapse Problem in GAN-based X-ray Images [0.08192907805418582]
この研究は、適応入力-画像正規化をDeep Conversaal GANとAuxiliary GANと統合してモード崩壊問題を緩和する利点の実証的な実証に寄与する。
その結果, 適応入出力正規化によるDCGANとACGANは, 非正規化X線画像でDCGANとACGANより優れていた。
論文 参考訳(メタデータ) (2023-09-21T16:43:29Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - Addressing the Intra-class Mode Collapse Problem using Adaptive Input
Image Normalization in GAN-based X-ray Images [0.7090165638014329]
この研究は、Deep Convolutional GANの適応型入出力正規化の統合による利点の実証的な実証に寄与する。
その結果,適応的な入出力正規化を持つDCGANは,非正規化X線画像でDCGANより優れていた。
論文 参考訳(メタデータ) (2022-01-25T13:54:25Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - HAMIL: Hierarchical Aggregation-Based Multi-Instance Learning for
Microscopy Image Classification [4.566276053984716]
マルチインスタンス学習はコンピュータビジョンタスク、特にバイオメディカル画像処理において一般的である。
本研究では,マルチインスタンス学習のための階層型アグリゲーションネットワークhamilを提案する。
階層的なアグリゲーションプロトコルは、定義された順序で機能融合を可能にし、単純な畳み込みアグリゲーションユニットは効率的で柔軟なアーキテクチャをもたらす。
論文 参考訳(メタデータ) (2021-03-17T16:34:08Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。