論文の概要: Unsupervised Domain Transfer with Conditional Invertible Neural Networks
- arxiv url: http://arxiv.org/abs/2303.10191v1
- Date: Fri, 17 Mar 2023 18:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:50:48.106815
- Title: Unsupervised Domain Transfer with Conditional Invertible Neural Networks
- Title(参考訳): 条件付き可逆ニューラルネットワークによる教師なしドメイン転送
- Authors: Kris K. Dreher, Leonardo Ayala, Melanie Schellenberg, Marco H\"ubner,
Jan-Hinrich N\"olke, Tim J. Adler, Silvia Seidlitz, Jan Sellner, Alexander
Studier-Fischer, Janek Gr\"ohl, Felix Nickel, Ullrich K\"othe, Alexander
Seitel, Lena Maier-Hein
- Abstract要約: 条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
- 参考スコア(独自算出の注目度): 83.90291882730925
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic medical image generation has evolved as a key technique for neural
network training and validation. A core challenge, however, remains in the
domain gap between simulations and real data. While deep learning-based domain
transfer using Cycle Generative Adversarial Networks and similar architectures
has led to substantial progress in the field, there are use cases in which
state-of-the-art approaches still fail to generate training images that produce
convincing results on relevant downstream tasks. Here, we address this issue
with a domain transfer approach based on conditional invertible neural networks
(cINNs). As a particular advantage, our method inherently guarantees cycle
consistency through its invertible architecture, and network training can
efficiently be conducted with maximum likelihood training. To showcase our
method's generic applicability, we apply it to two spectral imaging modalities
at different scales, namely hyperspectral imaging (pixel-level) and
photoacoustic tomography (image-level). According to comprehensive experiments,
our method enables the generation of realistic spectral data and outperforms
the state of the art on two downstream classification tasks (binary and
multi-class). cINN-based domain transfer could thus evolve as an important
method for realistic synthetic data generation in the field of spectral imaging
and beyond.
- Abstract(参考訳): 合成医療画像生成は、ニューラルネットワークのトレーニングと検証の鍵となる技術として進化してきた。
しかし、重要な課題はシミュレーションと実際のデータの間のドメインギャップにある。
Cycle Generative Adversarial Networksなどのアーキテクチャを用いたディープラーニングベースのドメイン転送は、この分野でかなりの進歩を遂げているが、最先端のアプローチでは、関連する下流タスクで有効な結果をもたらすトレーニングイメージの生成に失敗するケースもある。
本稿では,条件付き可逆ニューラルネットワーク(cinns)に基づくドメイン転送アプローチでこの問題に対処する。
特に,本手法は,その可逆的アーキテクチャによるサイクル一貫性を本質的に保証し,ネットワークトレーニングを最大限に効果的に行うことができる。
本手法の汎用的適用性を示すために,超スペクトルイメージング(ピクセルレベル)と光音響トモグラフィ(画像レベル)という,異なるスケールの2つのスペクトルイメージングモードに適用した。
総合的な実験により,本手法は,2つの下流分類タスク(バイナリとマルチクラス)において,現実的なスペクトルデータの生成を可能にし,技術の現状を向上する。
したがって、cINNベースのドメイン転送は、スペクトルイメージングなどの分野でのリアルな合成データ生成の重要な方法として進化する可能性がある。
関連論文リスト
- Self-supervised Vision Transformer are Scalable Generative Models for Domain Generalization [0.13108652488669734]
病理組織像における領域一般化のための新しい生成法を提案する。
本手法では,画像パッチの特徴を動的に抽出するために,生成型自己教師型視覚変換器を用いる。
2つの異なる病理組織学的データセットを用いて行った実験は,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2024-07-03T08:20:27Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - A2V: A Semi-Supervised Domain Adaptation Framework for Brain Vessel Segmentation via Two-Phase Training Angiography-to-Venography Translation [4.452428104996953]
画像の異なる脳血管セグメンテーションのための半教師付きドメイン適応フレームワークを提案する。
本フレームワークは,注釈付血管造影と限られた数の血管造影に頼り,画像から画像への翻訳とセマンティックセグメンテーションを実現する。
論文 参考訳(メタデータ) (2023-09-12T09:12:37Z) - Photo-realistic Neural Domain Randomization [37.42597274391271]
ニューラルレンダリングの最近の進歩は、フォトリアリスティック・ニューラルドメインランダム化(PNDR)と呼ばれる新しい統一アプローチを可能にしていることを示す。
我々のアプローチはモジュラーであり、材料、照明、レンダリングのための異なるニューラルネットワークで構成されており、異なるキー画像生成コンポーネントを異なるパイプラインでランダム化することが可能である。
実験の結果,PNDRを用いたトレーニングにより,新たなシーンへの一般化が可能であり,実世界移動の面では芸術の状況を大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-23T09:45:27Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Deep Domain Adversarial Adaptation for Photon-efficient Imaging Based on
Spatiotemporal Inception Network [11.58898808789911]
単光子LiDARでは、光子効率の撮像がシーンの3D構造を1ピクセル当たりの信号でキャプチャする。
このタスクの既存のディープラーニングモデルは、シミュレーションデータセットに基づいてトレーニングされている。
本研究では,空間的・時間的情報を完全に活用して,スパース・ハイノイズ光子計数ヒストグラムから奥行きを正確に予測できる光子効率イメージングのためのネットワーク(STIN)を提案する。
論文 参考訳(メタデータ) (2022-01-07T14:51:48Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Data Augmentation via Mixed Class Interpolation using Cycle-Consistent
Generative Adversarial Networks Applied to Cross-Domain Imagery [16.870604081967866]
機械学習による物体検出と非可視画像内の分類は多くの分野において重要な役割を担っている。
しかし、このような応用は、限られた量の非可視領域画像のためにしばしば苦しむ。
本稿では,可視光帯域画像を利用した新しいデータ拡張手法の提案と評価を行う。
論文 参考訳(メタデータ) (2020-05-05T18:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。