論文の概要: REFINE-CONTROL: A Semi-supervised Distillation Method For Conditional Image Generation
- arxiv url: http://arxiv.org/abs/2509.22139v1
- Date: Fri, 26 Sep 2025 09:59:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.354575
- Title: REFINE-CONTROL: A Semi-supervised Distillation Method For Conditional Image Generation
- Title(参考訳): 条件画像生成のための半教師付き蒸留法REFINE-CONTROL
- Authors: Yicheng Jiang, Jin Yuan, Hua Yuan, Yao Zhang, Yong Rui,
- Abstract要約: 条件付き画像生成モデルは、テキストベースの制御を活用して、カスタマイズされた画像を生成することで、目覚ましい結果を得た。
しかしながら、これらのモデルの高いリソース要求と、十分に注釈付けされたデータの不足により、エッジデバイスへのデプロイメントが妨げられている。
これらの課題を克服するための半教師付き蒸留フレームワークであるRefine-Controlを提案する。
- 参考スコア(独自算出の注目度): 22.926677024175763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional image generation models have achieved remarkable results by leveraging text-based control to generate customized images. However, the high resource demands of these models and the scarcity of well-annotated data have hindered their deployment on edge devices, leading to enormous costs and privacy concerns, especially when user data is sent to a third party. To overcome these challenges, we propose Refine-Control, a semi-supervised distillation framework. Specifically, we improve the performance of the student model by introducing a tri-level knowledge fusion loss to transfer different levels of knowledge. To enhance generalization and alleviate dataset scarcity, we introduce a semi-supervised distillation method utilizing both labeled and unlabeled data. Our experiments reveal that Refine-Control achieves significant reductions in computational cost and latency, while maintaining high-fidelity generation capabilities and controllability, as quantified by comparative metrics.
- Abstract(参考訳): 条件付き画像生成モデルは、テキストベースの制御を活用して、カスタマイズされた画像を生成することで、目覚ましい結果を得た。
しかしながら、これらのモデルの高いリソース要求と、十分に注釈付けされたデータの不足により、エッジデバイスへのデプロイメントが妨げられ、特にユーザデータがサードパーティに送信された場合、膨大なコストとプライバシ上の懸念が生じている。
これらの課題を克服するために, 半教師付き蒸留フレームワークRefine-Controlを提案する。
具体的には、異なるレベルの知識を伝達するために三段階の知識融合損失を導入することにより、学生モデルの性能を向上させる。
一般化とデータセットの不足を軽減するため,ラベル付きデータとラベルなしデータの両方を利用した半教師付き蒸留法を提案する。
実験の結果,Refine-Control は高忠実度生成能力と制御性を維持しながら,計算コストと遅延の大幅な削減を実現していることがわかった。
関連論文リスト
- A Practical Investigation of Spatially-Controlled Image Generation with Transformers [16.682348277650817]
我々は,空間的に制御された生成システムを開発したいと考える実践者に対して,世代パラダイムをまたいだ明確なテイクアウトを提供することを目指している。
我々は、拡散ベース/フローベースおよび自己回帰(AR)モデル間で、ImageNet上で制御実験を行う。
論文 参考訳(メタデータ) (2025-07-21T15:33:49Z) - PerLDiff: Controllable Street View Synthesis Using Perspective-Layout Diffusion Models [55.080748327139176]
本稿では,3次元幾何学的情報を完全に活用したストリートビュー画像生成手法であるPerLDiffを紹介する。
PerLDiffは、ネットワーク学習プロセス内で正確なオブジェクトレベル制御でストリートビュー画像の生成をガイドするために、3次元の幾何学的事前情報を利用する。
PerLDiffはNuScenesとKITTIデータセット上での制御可能な生成の精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-07-08T16:46:47Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Refining the ONCE Benchmark with Hyperparameter Tuning [45.55545585587993]
本研究は、ポイントクラウドデータに対する半教師付き学習アプローチの評価に焦点を当てる。
データアノテーションは、LiDARアプリケーションのコンテキストにおいて最も重要である。
従来の半教師付き手法による改善は,従来考えられていたほど深くない可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-10T13:39:07Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - Semi-Supervised StyleGAN for Disentanglement Learning [79.01988132442064]
現在の解離法は、いくつかの固有の制限に直面している。
半教師付き高分解能ディスタングル学習のためのStyleGANに基づく新しいアーキテクチャと損失関数を設計する。
論文 参考訳(メタデータ) (2020-03-06T22:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。