論文の概要: Deep Learning for Breast MRI Style Transfer with Limited Training Data
- arxiv url: http://arxiv.org/abs/2301.02069v1
- Date: Thu, 5 Jan 2023 13:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-29 14:27:01.144738
- Title: Deep Learning for Breast MRI Style Transfer with Limited Training Data
- Title(参考訳): 限られた訓練データを用いた乳房MRIスタイルの深層学習
- Authors: Shixing Cao, Nicholas Konz, James Duncan and Maciej A. Mazurowski
- Abstract要約: StyleMapperは、限られたトレーニングデータにアクセスして、医療スキャンを見えないスタイルに転送することができる。
本手法では, 任意のスタイル転送が可能であり, トレーニング中に見えないスタイルに画像を転送する。
- 参考スコア(独自算出の注目度): 0.9462808515258463
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we introduce a novel medical image style transfer method,
StyleMapper, that can transfer medical scans to an unseen style with access to
limited training data. This is made possible by training our model on unlimited
possibilities of simulated random medical imaging styles on the training set,
making our work more computationally efficient when compared with other style
transfer methods. Moreover, our method enables arbitrary style transfer:
transferring images to styles unseen in training. This is useful for medical
imaging, where images are acquired using different protocols and different
scanner models, resulting in a variety of styles that data may need to be
transferred between. Methods: Our model disentangles image content from style
and can modify an image's style by simply replacing the style encoding with one
extracted from a single image of the target style, with no additional
optimization required. This also allows the model to distinguish between
different styles of images, including among those that were unseen in training.
We propose a formal description of the proposed model. Results: Experimental
results on breast magnetic resonance images indicate the effectiveness of our
method for style transfer. Conclusion: Our style transfer method allows for the
alignment of medical images taken with different scanners into a single unified
style dataset, allowing for the training of other downstream tasks on such a
dataset for tasks such as classification, object detection and others.
- Abstract(参考訳): そこで本研究では, 限られたトレーニングデータにアクセスして, 医用スキャンを目立たないスタイルに転送できる新しい医用画像スタイル転送法であるstylemapperを提案する。
これは、トレーニングセット上のランダムな医療画像スタイルの無限の可能性に基づいて、我々のモデルをトレーニングすることにより、他のスタイル転送方法と比較して、より計算効率が良くなる。
また,任意のスタイル転送が可能であり,トレーニングでは認識できないスタイルへの画像転送が可能となる。
これは、異なるプロトコルと異なるスキャナーモデルを使って画像を取得する医療画像に有用であり、その結果、データ間で転送する必要がある様々なスタイルが生まれる。
方法: このモデルでは, 画像コンテンツをスタイルから切り離し, 単にスタイルエンコーディングを, 対象形式の1つの画像から抽出したものに置き換えるだけで, 追加の最適化を必要とせず, 画像のスタイルを変更できる。
これにより、トレーニングで目に見えないものも含めて、異なるスタイルのイメージを区別することができる。
我々は,提案モデルの形式的記述を提案する。
結果: 乳房磁気共鳴画像を用いた実験結果から, スタイル伝達法の有効性が示唆された。
結論: このスタイル転送法では, 異なるスキャナで撮影された医用画像を単一の統一型データセットにアライメントすることが可能であり, 分類, オブジェクト検出などのタスクに対して, 他のダウンストリームタスクをトレーニングすることが可能である。
関連論文リスト
- Harnessing the Latent Diffusion Model for Training-Free Image Style Transfer [24.46409405016844]
スタイル転送タスクは、スタイルイメージの視覚的属性を他のコンテンツイメージに転送する課題の1つである。
我々は、事前訓練された潜在拡散モデル(LDM)のための学習不要なスタイル伝達アルゴリズム、スタイルトラッキング逆拡散プロセス(STRDP)を提案する。
本アルゴリズムは, LDMの逆拡散過程において, 適応インスタンス正規化(AdaIN)関数を異なる方法で適用する。
論文 参考訳(メタデータ) (2024-10-02T09:28:21Z) - Ada-adapter:Fast Few-shot Style Personlization of Diffusion Model with Pre-trained Image Encoder [57.574544285878794]
Ada-Adapterは拡散モデルの少数ショットスタイルのパーソナライズのための新しいフレームワークである。
提案手法は,単一の参照画像を用いたゼロショット方式の効率的な転送を可能にする。
フラットアートや3Dレンダリング,ロゴデザインなど,さまざまな芸術的スタイルに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-08T02:00:17Z) - Customizing Text-to-Image Models with a Single Image Pair [47.49970731632113]
芸術再解釈(Art repretation)は、参照された作品のバリエーションを作成し、異なる芸術様式を示すペアアートを作るプラクティスである。
Pair Customizationは1つの画像対からスタイリスティックな違いを学習し、取得したスタイルを生成プロセスに適用する新しいカスタマイズ手法である。
論文 参考訳(メタデータ) (2024-05-02T17:59:52Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Improving the Latent Space of Image Style Transfer [24.37383949267162]
事前訓練されたエンコーダの特徴統計は、私たちが認識した視覚的スタイルと一致しない場合もある。
そのような不適切な潜在空間では、既存の手法の目的関数は間違った方向に最適化される。
本稿では,この課題に適合する洗練されたエンコーダを得るための2つの対照的な訓練手法を提案する。
論文 参考訳(メタデータ) (2022-05-24T15:13:01Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。