論文の概要: GANBERT: Generative Adversarial Networks with Bidirectional Encoder
Representations from Transformers for MRI to PET synthesis
- arxiv url: http://arxiv.org/abs/2008.04393v1
- Date: Mon, 10 Aug 2020 20:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:47:54.188220
- Title: GANBERT: Generative Adversarial Networks with Bidirectional Encoder
Representations from Transformers for MRI to PET synthesis
- Title(参考訳): GANBERT:MRI用トランスフォーマーからPET合成への双方向エンコーダ表現を用いた生成逆ネットワーク
- Authors: Hoo-Chang Shin, Alvin Ihsani, Swetha Mandava, Sharath Turuvekere
Sreenivas, Christopher Forster, Jiook Cha and Alzheimer's Disease
Neuroimaging Initiative
- Abstract要約: BiBERTアルゴリズムはMRI画像から幅広い範囲でPET画像を生成する。
BERTは、その"next sentence prediction (NSP)"がGAN識別器として機能するマスク付き値画像の比率を予測するために訓練されている。
- 参考スコア(独自算出の注目度): 0.050257374758179374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing medical images, such as PET, is a challenging task due to the
fact that the intensity range is much wider and denser than those in
photographs and digital renderings and are often heavily biased toward zero.
Above all, intensity values in PET have absolute significance, and are used to
compute parameters that are reproducible across the population. Yet, usually
much manual adjustment has to be made in pre-/post- processing when
synthesizing PET images, because its intensity ranges can vary a lot, e.g.,
between -100 to 1000 in floating point values. To overcome these challenges, we
adopt the Bidirectional Encoder Representations from Transformers (BERT)
algorithm that has had great success in natural language processing (NLP),
where wide-range floating point intensity values are represented as integers
ranging between 0 to 10000 that resemble a dictionary of natural language
vocabularies. BERT is then trained to predict a proportion of masked values
images, where its "next sentence prediction (NSP)" acts as GAN discriminator.
Our proposed approach, is able to generate PET images from MRI images in wide
intensity range, with no manual adjustments in pre-/post- processing. It is a
method that can scale and ready to deploy.
- Abstract(参考訳): PETのような医用画像の合成は、写真やデジタルレンダリングよりも強度範囲がずっと広く、密度が高いため、多くの場合ゼロに偏っているため、難しい課題である。
PETの強度値には絶対的な重要性があり、人口間で再現可能なパラメータを計算するために用いられる。
しかし,pet画像合成では,浮動小数点値が-100から1000など,その強度範囲が大きく変化するため,手作業による手作業による調整が一般的である。
これらの課題を克服するために、自然言語処理(NLP)において大きな成功を収めた変換器の双方向エンコーダ表現(BERT)アルゴリズムを採用し、自然言語語彙の辞書に類似した0~10000の整数として、広帯域浮動小数点強度値を表現している。
BERTは、その"next sentence prediction (NSP)"がGAN識別器として機能するマスク付き値の比率を予測するために訓練される。
提案手法では,MRI画像から広い範囲でPET画像を生成することができるが,手動による前・後処理の調整は行わない。
スケールアップとデプロイの準備ができているメソッドです。
関連論文リスト
- CAT: Content-Adaptive Image Tokenization [92.2116487267877]
本稿では,CAT(Content-Adaptive Tokenizer)を導入し,画像の内容に基づいて表現能力を調整し,より単純な画像をより少ないトークンにエンコードする。
本研究では,大容量言語モデル(LLM)を利用したキャプションベース評価システムの設計を行い,コンテントの複雑さを予測し,与えられた画像に対する最適な圧縮比を決定する。
トークン割り当てを最適化することで、CATは同じフロップでトレーニングされた固定比率ベースラインよりもFIDスコアを改善し、推論スループットを18.5%向上させる。
論文 参考訳(メタデータ) (2025-01-06T16:28:47Z) - LegoPET: Hierarchical Feature Guided Conditional Diffusion for PET Image Reconstruction [0.7366405857677227]
ホログラムからの高画質PET画像再構成のための階層的特徴ガイド付き条件拡散モデルであるLegoPETを紹介する。
LegoPETは、cDPMの性能を向上するだけでなく、最近のDLベースのPET画像再構成技術を、視覚的品質とピクセルレベルのPSNR/SSIMメトリクスで上回っている。
論文 参考訳(メタデータ) (2024-11-25T18:05:34Z) - Deep kernel representations of latent space features for low-dose PET-MR imaging robust to variable dose reduction [0.09362267584678274]
低線量ポジトロン放射トモグラフィ(PET)画像再構成法は、画像モダリティとしてPETを大幅に改善する可能性がある。
ディープラーニングは、画像再構成問題に事前情報を組み込んで、妥協された信号から定量的に正確な画像を生成する、有望な手段を提供する。
本稿では,カーネル表現を頑健に表現した深層潜伏空間の特徴を明示的にモデル化し,これまで見られなかった線量削減係数に対して頑健な性能を提供する手法を提案する。
論文 参考訳(メタデータ) (2024-09-10T03:57:31Z) - Transformer based Pluralistic Image Completion with Reduced Information Loss [72.92754600354199]
トランスフォーマーをベースとした手法は,近年,イメージインペイントにおいて大きな成功を収めている。
彼らは各ピクセルをトークンとみなし、情報損失の問題に悩まされる。
我々はPUTと呼ばれる新しいトランスフォーマーベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T01:20:16Z) - Spach Transformer: Spatial and Channel-wise Transformer Based on Local
and Global Self-attentions for PET Image Denoising [14.63465242359333]
近年,PET画像の品質向上のために,畳み込みニューラルネットワーク(CNN)が広く利用されている。
CNNは、受信フィールドが限られているため、長距離依存関係をうまくキャプチャできない。
本研究では,空間情報とチャネル情報を利用する効率的な空間的・チャネル的エンコーダ・デコーダ変換器であるSpach Transformerを提案する。
論文 参考訳(メタデータ) (2022-09-07T16:59:14Z) - Not All Images are Worth 16x16 Words: Dynamic Vision Transformers with
Adaptive Sequence Length [40.35853878334764]
視覚変換器(ViT)は大規模画像認識において顕著な成功を収めた。
精度と速度の適切なトレードオフを達成するため、トークンの数は16x16に実証的に設定される。
入力画像ごとに適切な数のトークンを自動的に設定する動的変換器を提案する。
論文 参考訳(メタデータ) (2021-05-31T16:04:10Z) - Transformer-Based Deep Image Matching for Generalizable Person
Re-identification [114.56752624945142]
画像マッチングと距離学習にトランスフォーマーを適用する可能性について検討する。
視覚変換器 (ViT) とデコーダ付きバニラ変換器 (Vanilla Transformer) はイメージ・ツー・イメージ・アテンションの欠如により画像マッチングに適していないことがわかった。
そこで本研究では,クエリキーの類似性のみを保ちながら,ソフトマックス重み付けによる注意の完全な実装を省略する,単純化されたデコーダを提案する。
論文 参考訳(メタデータ) (2021-05-30T05:38:33Z) - Diverse Image Inpainting with Bidirectional and Autoregressive
Transformers [55.21000775547243]
新規な双方向自己回帰トランス(BAT)を用いた画像インペインティングフレームワークBAT-Fillを提案する。
BAT-Fillは変換器とCNNの利点を2段階的に継承し、変換器の注意の二次的複雑さに制約されることなく高解像度のコンテンツを生成する。
論文 参考訳(メタデータ) (2021-04-26T03:52:27Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Visual Transformers: Token-based Image Representation and Processing for
Computer Vision [67.55770209540306]
Visual Transformer (VT) はセマンティックトークン空間で動作し、コンテキストに基づいて異なる画像部品に任意に参加する。
高度なトレーニングレシピを使うことで、私たちのVTは畳み込みよりも大幅に優れています。
LIPとCOCO-stuffのセマンティックセグメンテーションでは、VTベースの特徴ピラミッドネットワーク(FPN)は、FPNモジュールのFLOPを6.5倍減らしながら、mIoUの0.35ポイントを達成している。
論文 参考訳(メタデータ) (2020-06-05T20:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。