論文の概要: Feedback Assisted Adversarial Learning to Improve the Quality of
Cone-beam CT Images
- arxiv url: http://arxiv.org/abs/2210.12578v1
- Date: Sun, 23 Oct 2022 00:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 18:56:48.600904
- Title: Feedback Assisted Adversarial Learning to Improve the Quality of
Cone-beam CT Images
- Title(参考訳): コーンビームCT画像の品質向上のためのフィードバック支援対人学習
- Authors: Takumi Hase, Megumi Nakao, Mitsuhiro Nakamura, Tetsuya Matsuda
- Abstract要約: 本稿では,CBCT画像の品質向上のために,識別器からのフィードバック機構を用いた逆学習を提案する。
このフレームワークは、U-netを判別器として使用し、局所的な識別結果を表す確率マップを出力する。
- 参考スコア(独自算出の注目度): 2.179313476241343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised image translation using adversarial learning has been attracting
attention to improve the image quality of medical images. However, adversarial
training based on the global evaluation values of discriminators does not
provide sufficient translation performance for locally different image
features. We propose adversarial learning with a feedback mechanism from a
discriminator to improve the quality of CBCT images. This framework employs
U-net as the discriminator and outputs a probability map representing the local
discrimination results. The probability map is fed back to the generator and
used for training to improve the image translation. Our experiments using 76
corresponding CT-CBCT images confirmed that the proposed framework could
capture more diverse image features than conventional adversarial learning
frameworks and produced synthetic images with pixel values close to the
reference image and a correlation coefficient of 0.93.
- Abstract(参考訳): 逆学習を用いた教師なし画像翻訳は,医用画像の画質向上に注目されている。
しかし, 判別器のグローバル評価値に基づく逆行訓練では, 局所的に異なる画像特徴に対して十分な翻訳性能が得られない。
本稿では, cbct画像の品質向上のために, 判別器からのフィードバック機構を用いた逆学習を提案する。
このフレームワークはu-netを判別器として使用し、局所的な識別結果を表す確率マップを出力する。
確率マップはジェネレータにフィードバックされ、画像翻訳を改善するためのトレーニングに使用される。
76個のCT-CBCT画像を用いた実験により,従来の逆数学習フレームワークよりも多様な画像特徴を抽出し,基準画像に近い画素値と相関係数0.93の合成画像を生成することを確認した。
関連論文リスト
- Context-Aware Optimal Transport Learning for Retinal Fundus Image Enhancement [1.8339026473337505]
本稿では,未実装の眼底画像強調に対処するためのコンテキストインフォームド・トランスポート(OT)学習フレームワークを提案する。
我々は、地球の距離移動器を用いて、提案した文脈認識OTを導出し、提案した文脈認識OTが確固とした理論的保証を有することを示す。
大規模データセットによる実験結果から,提案手法がいくつかの最先端の教師付きおよび教師なし手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T09:14:37Z) - Local Manifold Learning for No-Reference Image Quality Assessment [68.9577503732292]
No-Reference Image Quality Assessment(NR-IQA)のための、局所多様体学習とコントラスト学習を統合した革新的なフレームワークを提案する。
提案手法は,7つの標準データセットの最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-27T15:14:23Z) - Transformer-based Clipped Contrastive Quantization Learning for
Unsupervised Image Retrieval [15.982022297570108]
教師なし画像検索は、与えられたクエリ画像の類似画像を取得するために、任意のレベルなしに重要な視覚的特徴を学習することを目的としている。
本稿では,パッチベースの処理により局所的なコンテキストを持つTransformerを用いて,画像のグローバルコンテキストを符号化するTransClippedCLRモデルを提案する。
提案したクリップ付きコントラスト学習の結果は、バニラコントラスト学習と同一のバックボーンネットワークと比較して、すべてのデータセットで大幅に改善されている。
論文 参考訳(メタデータ) (2024-01-27T09:39:11Z) - OTRE: Where Optimal Transport Guided Unpaired Image-to-Image Translation
Meets Regularization by Enhancing [4.951748109810726]
正確な診断と自動解析のために、最適な網膜画像品質が義務付けられている。
そこで本研究では,低品質の網膜CFPを高画質のCFPにマッピングするための画像対画像変換手法を提案する。
統合されたフレームワークOTREを3つの公開網膜画像データセット上で検証した。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。