論文の概要: FQGA-single: Towards Fewer Training Epochs and Fewer Model Parameters for Image-to-Image Translation Tasks
- arxiv url: http://arxiv.org/abs/2408.09218v4
- Date: Mon, 11 Aug 2025 03:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.070861
- Title: FQGA-single: Towards Fewer Training Epochs and Fewer Model Parameters for Image-to-Image Translation Tasks
- Title(参考訳): FQGA-Single:画像から画像への翻訳作業における低トレーニングエポックと低モデルパラメータを目指して
- Authors: Cho Yang,
- Abstract要約: 本稿では、高品質な医用合成CT(sCT)生成画像をより効率的に作成するために、CycleGAN: FQGA-singleにインスパイアされた新しいモデルを提案する。
ベンチマークおよびCBCT-to-sCT生成画像の品質の比較に使用されるCycleGANモデルを用いて,SynthRAD Grand Challengeデータセット上で評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel model inspired by CycleGAN: FQGA-single to produce high quality medical synthetic CT (sCT) generated images more efficiently. Evaluations were done on the SynthRAD Grand Challenge dataset with the CycleGAN model used for benchmarking and for comparing the quality of CBCT-to-sCT generated images from both a quantitative and qualitative perspective. Finally, this paper also explores ideas from the paper "One Epoch Is All You Need" to compare models trained on a single epoch versus multiple epochs. Astonishing results from FQGA-single were obtained during this exploratory experiment, which show that the performance of FQGA-single when trained on a single epoch surpasses itself when trained on multiple epochs. More surprising is that its performance also surpasses CycleGAN's multiple-epoch and single-epoch models, and even a modified version of CycleGAN.
- Abstract(参考訳): 本稿では、高品質な医用合成CT(sCT)生成画像をより効率的に作成するために、CycleGAN: FQGA-singleにインスパイアされた新しいモデルを提案する。
ベンチマークおよびCBCT-to-sCT生成画像の品質の比較に使用されるCycleGANモデルを用いて,SynthRAD Grand Challengeデータセット上で評価を行った。
最後に、一つのエポックで訓練されたモデルと複数のエポックで訓練されたモデルを比較するために、論文"One Epoch Is All You Need"のアイデアについても検討する。
この探索実験では, 単一エポックでトレーニングした場合のFQGAシングルのパフォーマンスが, 複数エポックでトレーニングした場合のFQGAシングルよりも優れていた。
さらに驚きなのは、CycleGANのマルチエポックモデルやシングルエポックモデル、さらにはCycleGANの修正バージョンよりもパフォーマンスが優れていることだ。
関連論文リスト
- Self-Evaluation Unlocks Any-Step Text-to-Image Generation [65.7088507945307]
本稿では,テキスト・画像生成のための自己評価モデル(Self-E)について紹介する。
Self-Eは、フローマッチングモデルと同様のデータから学習し、同時に新しい自己評価メカニズムを使用する。
大規模なテキストと画像のベンチマークの実験では、Self-Eは数ステップの世代で優れているだけでなく、50ステップで最先端のFlow Matchingモデルと競合している。
論文 参考訳(メタデータ) (2025-12-26T20:42:11Z) - Kaleido: Open-Sourced Multi-Subject Reference Video Generation Model [38.79676648965641]
対象者の複数の参照画像に条件付き映像を合成することを目的としたS2V生成フレームワークであるKaleidoについて述べる。
カレイドは、一貫性、忠実性、一般化において従来の方法よりも著しく優れており、S2V生成の進歩を示している。
論文 参考訳(メタデータ) (2025-10-21T12:28:14Z) - Breaking Silos: Adaptive Model Fusion Unlocks Better Time Series Forecasting [64.45587649141842]
時系列予測は多くの現実世界のアプリケーションにおいて重要な役割を果たす。
1つのモデルは、異なるテストサンプルで一貫して他よりも優れていますが、(ii) それぞれのモデルは特定のケースで優れています。
異種モデルのサンプルレベル適応融合による時系列予測のためのフレームワークであるTimeFuseを紹介する。
論文 参考訳(メタデータ) (2025-05-24T00:45:07Z) - Teaching LMMs for Image Quality Scoring and Interpreting [71.1335005098584]
Q-SiT(Quality Scoring and Interpreting Joint Teaching)は,画像品質のスコアリングと解釈を同時に行うための統合フレームワークである。
Q-SiTは、Q-SiT-miniと共に画像品質スコアリングと解釈タスクを同時に実行する最初のモデルである。
実験結果から,Q-SiTはIQA能力の優れた両タスクにおいて高い性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-03-12T09:39:33Z) - Role of the Pretraining and the Adaptation data sizes for low-resource real-time MRI video segmentation [26.69134548708678]
実時間MRI(Real-time Magnetic Resonance Imaging)は、発声時の声道の完全な視認を提供するため、音声合成研究において頻繁に用いられる。
本研究では,ATB分割作業におけるSegNetとUNetモデルを用いた声道運動解析におけるrtMRIの有効性について検討した。
論文 参考訳(メタデータ) (2025-02-20T10:15:43Z) - Rejection Sampling IMLE: Designing Priors for Better Few-Shot Image
Synthesis [7.234618871984921]
新たな研究分野は、限られたトレーニングデータで深層生成モデルを学ぶことを目的としている。
トレーニングに使用する事前分布を変更する新しいアプローチであるRS-IMLEを提案する。
これにより、既存のGANやIMLEベースの手法に比べて画質が大幅に向上する。
論文 参考訳(メタデータ) (2024-09-26T00:19:42Z) - MultiDiff: Consistent Novel View Synthesis from a Single Image [60.04215655745264]
MultiDiffは、単一のRGB画像からシーンを一貫した新しいビュー合成のための新しいアプローチである。
以上の結果から,MultiDiffは,課題の多いリアルタイムデータセットであるRealEstate10KとScanNetにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-26T17:53:51Z) - Adaptive Image Quality Assessment via Teaching Large Multimodal Model to Compare [99.57567498494448]
我々はLMMに基づくノン参照IQAモデルであるCompare2Scoreを紹介する。
トレーニング中、同じIQAデータセットの画像を比較することで、スケールアップ比較命令を生成する。
9つのIQAデータセットの実験により、Compare2Scoreは、トレーニング中にテキスト定義の比較レベルを効果的にブリッジすることを確認した。
論文 参考訳(メタデータ) (2024-05-29T17:26:09Z) - Conditional Distribution Modelling for Few-Shot Image Synthesis with Diffusion Models [29.821909424996015]
少ないショット画像合成は、いくつかの例画像のみを使用して、斬新なカテゴリの多彩で現実的な画像を生成する。
本研究では,ディフュージョンモデルを利用した条件分布モデル (CDM) を提案する。
論文 参考訳(メタデータ) (2024-04-25T12:11:28Z) - IG-FIQA: Improving Face Image Quality Assessment through Intra-class
Variance Guidance robust to Inaccurate Pseudo-Labels [13.567049202308981]
IG-FIQAは、FIQAトレーニングをガイドする新しいアプローチであり、これらの授業の有害な影響を軽減するために重みパラメータを導入する。
提案手法であるIG-FIQAは,様々なベンチマーク・データセットを用いて,新しいSOTA(State-of-the-art)性能を実現した。
論文 参考訳(メタデータ) (2024-03-13T05:15:43Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Deep Equilibrium Approaches to Diffusion Models [1.4275201654498746]
拡散に基づく生成モデルは高品質な画像を生成するのに極めて効果的である。
これらのモデルは通常、高忠実度画像を生成するために長いサンプリングチェーンを必要とする。
我々は、異なる観点からの拡散モデル、すなわち(深い)平衡(DEQ)固定点モデルについて考察する。
論文 参考訳(メタデータ) (2022-10-23T22:02:19Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Paired Image-to-Image Translation Quality Assessment Using Multi-Method
Fusion [0.0]
本稿では,画像品質の信号のペア化と変換を併用して,後者の類似性と仮説的基底真理を推定する手法を提案する。
我々は,深部画像構造とテクスチャ類似性(DISTS)を予測するために,勾配型回帰器のアンサンブルを用いたマルチメソッドフュージョン(MMF)モデルを訓練した。
分析の結果,測定時間と予測精度の間にトレードオフが生じ,特徴制約を課すことが判明した。
論文 参考訳(メタデータ) (2022-05-09T11:05:15Z) - UVCGAN: UNet Vision Transformer cycle-consistent GAN for unpaired
image-to-image translation [7.998209482848582]
画像から画像への翻訳は、芸術、デザイン、科学シミュレーションに広く応用されている。
本研究は,視覚変換器(ViT)をCycleGANに装着し,GANトレーニング技術を用いてより優れた性能を実現するかを検討する。
論文 参考訳(メタデータ) (2022-03-04T20:27:16Z) - Towards Bidirectional Arbitrary Image Rescaling: Joint Optimization and
Cycle Idempotence [76.93002743194974]
本稿では、任意の再スケーリング(アップスケーリングとダウンスケーリングの両方)を統一プロセスとして扱う方法を提案する。
提案モデルでは、アップスケーリングとダウンスケーリングを同時に学習し、双方向の任意のイメージ再スケーリングを実現する。
繰り返しにダウンスケーリング・アップスケーリング・サイクルが適用された場合, 復元精度が著しく低下することなく, サイクルイデオポテンス試験において堅牢であることが確認された。
論文 参考訳(メタデータ) (2022-03-02T07:42:15Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Task2Sim : Towards Effective Pre-training and Transfer from Synthetic
Data [74.66568380558172]
本稿では,グラフィックスシミュレータから下流タスクへの合成データに基づく事前学習モデルの転送可能性について検討する。
本稿では、最適なシミュレーションパラメータに対する下流タスク表現を統一したモデルマッピングであるTask2Simを紹介する。
このマッピングはトレーニングによって学習し、"見える"タスクのセットで最適なパラメータのセットを見つける。
トレーニングが完了すると、ワンショットで新しい"見えない"タスクの最適なシミュレーションパラメータを予測するために使用することができる。
論文 参考訳(メタデータ) (2021-11-30T19:25:27Z) - Transferability Estimation using Bhattacharyya Class Separability [37.52588126267552]
トランスファーラーニング(Transfer Learning)は、コンピュータビジョンにおいて事前訓練されたモデルを活用する一般的な方法である。
特定の目標タスクに適した事前学習されたソースモデルを定量化することは困難である。
本稿では,ソースモデルとターゲットデータセット間の転送可能性の定量化手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T20:22:28Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Few-Shot Adaptation of Generative Adversarial Networks [54.014885321880755]
本稿では,100枚未満の設定でGANを適応するための簡易かつ効果的なFew-Shot GANを提案する。
FSGANは、対応する特異ベクトルを凍結しながら、事前訓練された重みの特異値に適応することを学ぶ。
提案手法は,既存のGAN適応法と比較して,視覚的品質が著しく向上していることを示す。
論文 参考訳(メタデータ) (2020-10-22T17:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。