論文の概要: Domain Adaptation based on Human Feedback for Enhancing Generative Model
Denoising Abilities
- arxiv url: http://arxiv.org/abs/2308.00307v1
- Date: Tue, 1 Aug 2023 05:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 15:22:53.052396
- Title: Domain Adaptation based on Human Feedback for Enhancing Generative Model
Denoising Abilities
- Title(参考訳): 生成モデル発声能力向上のための人間のフィードバックに基づく領域適応
- Authors: Hyun-Cheol Park, Sung Ho Kang
- Abstract要約: 提案手法は,人間のフィードバックを用いて,問題や領域適応に適応する手法を示す。
本稿では,人間からのフィードバックを利用して,異なる領域で生成された不適切な結果を微調整する手法を提案する。
- 参考スコア(独自算出の注目度): 4.4891696769100635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we apply human feedback into generative model? As answer of this
question, in this paper, we show the method applied on denoising problem and
domain adaptation using human feedback. Deep generative models have
demonstrated impressive results in image denoising. However, current image
denoising models often produce inappropriate results when applied to domains
different from the ones they were trained on. If there are `Good' and `Bad'
result for unseen data, how to raise up quality of `Bad' result. Most methods
use an approach based on generalization of model. However, these methods
require target image for training or adapting unseen domain. In this paper, to
adapting domain, we deal with non-target image for unseen domain, and improve
specific failed image. To address this, we propose a method for fine-tuning
inappropriate results generated in a different domain by utilizing human
feedback. First, we train a generator to denoise images using only the noisy
MNIST digit '0' images. The denoising generator trained on the source domain
leads to unintended results when applied to target domain images. To achieve
domain adaptation, we construct a noise-image denoising generated image data
set and train a reward model predict human feedback. Finally, we fine-tune the
generator on the different domain using the reward model with auxiliary loss
function, aiming to transfer denoising capabilities to target domain. Our
approach demonstrates the potential to efficiently fine-tune a generator
trained on one domain using human feedback from another domain, thereby
enhancing denoising abilities in different domains.
- Abstract(参考訳): 人的フィードバックを生成モデルに適用するにはどうすればよいか?
本稿では,この問いに対する回答として,人間フィードバックを用いた雑音化問題と領域適応法について述べる。
深層生成モデルは、画像の雑音化において印象的な結果を示している。
しかし、現在の画像記述モデルは、訓練されたものと異なる領域に適用した場合、しばしば不適切な結果をもたらす。
見えないデータに対して ‘Good' と `Bad' の結果がある場合、 `Bad' の結果の品質を上げる方法がある。
ほとんどの手法はモデルの一般化に基づくアプローチを用いる。
しかし、これらの方法は、未熟なドメインの訓練や適応のためにターゲットイメージを必要とする。
本稿では,非対象領域に対する非対象画像を取り扱うとともに,特定の失敗画像を改善する。
そこで本研究では,人間のフィードバックを利用して異なる領域で発生する不適切な結果を微調整する手法を提案する。
まず、ノイズの多いMNIST 桁 '0' 画像のみを用いて、画像に雑音を与えるジェネレータを訓練する。
ソースドメインでトレーニングされたデノージングジェネレータは、ターゲットドメインイメージに適用されると意図しない結果になる。
ドメイン適応を実現するため、雑音像生成画像データセットを構築し、報酬モデルで人間のフィードバックを予測する。
最後に、補助損失関数を持つ報酬モデルを用いて、異なるドメイン上のジェネレータを微調整し、対象ドメインに通知機能を転送することを目的とした。
提案手法は,あるドメインで訓練されたジェネレータを,別のドメインからのフィードバックによって効率的に微調整できる可能性を示し,異なるドメインにおける認知能力を高める。
関連論文リスト
- Adaptive Domain Learning for Cross-domain Image Denoising [57.4030317607274]
本稿では,クロスドメイン画像認識のための適応型ドメイン学習手法を提案する。
私たちは、異なるセンサー(ソースドメイン)からの既存のデータに加えて、新しいセンサー(ターゲットドメイン)からの少量のデータを使用します。
ADLトレーニングスキームは、ターゲットドメインのモデルを微調整するのに有害なソースドメイン内のデータを自動的に削除する。
また,センサ固有の情報(センサタイプとISO)を取り入れ,画像認識のための入力データを理解するための変調モジュールも導入した。
論文 参考訳(メタデータ) (2024-11-03T08:08:26Z) - Self-Calibrated Variance-Stabilizing Transformations for Real-World Image Denoising [19.08732222562782]
教師付き深層学習が画像認知のための選択方法となっている。
一般の信条とは対照的に,ガウスノイズ除去に特化するネットワークを有効活用し,実世界の画像復調に有効であることを示す。
論文 参考訳(メタデータ) (2024-07-24T16:23:46Z) - Tuning-Free Noise Rectification for High Fidelity Image-to-Video
Generation [23.81997037880116]
イメージ・ツー・ビデオ(I2V)生成タスクは常に、オープンドメインで高い忠実さを維持することに苦しむ。
いくつかの最近のI2Vフレームワークは、オープンドメインイメージの動的コンテンツを生成できるが、忠実さを維持できない。
本稿では,主流映像拡散モデルに適用可能な効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-03-05T09:57:47Z) - Gradpaint: Gradient-Guided Inpainting with Diffusion Models [71.47496445507862]
Denoising Diffusion Probabilistic Models (DDPM) は近年,条件付きおよび非条件付き画像生成において顕著な成果を上げている。
我々はGradPaintを紹介し、グローバルな一貫性のあるイメージに向けて世代を操る。
我々は、様々なデータセットで訓練された拡散モデルによく適応し、現在最先端の教師付きおよび教師なしの手法を改善している。
論文 参考訳(メタデータ) (2023-09-18T09:36:24Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Diffusion Model for Generative Image Denoising [17.897180118637856]
画像復調のための教師あり学習では、通常、ペアのクリーンな画像とノイズの多い画像を収集し合成し、復調モデルを訓練する。
本稿では,ノイズ画像に条件付けされたクリーン画像の後部分布を推定する問題として,デノナイジングタスクを考察する。
論文 参考訳(メタデータ) (2023-02-05T14:53:07Z) - Learning to Generate Realistic Noisy Images via Pixel-level Noise-aware
Adversarial Training [50.018580462619425]
我々は,PNGAN(Pixel-level Noise-aware Generative Adrial Network)という新しいフレームワークを提案する。
PNGANは、トレーニング済みのリアルデノイザーを使用して、フェイク画像とリアルノイズ画像をほぼノイズのないソリューション空間にマッピングする。
より優れたノイズフィッティングを実現するため,ジェネレータとしてSimple Multi-versa-scale Network (SMNet) を提案する。
論文 参考訳(メタデータ) (2022-04-06T14:09:02Z) - IDR: Self-Supervised Image Denoising via Iterative Data Refinement [66.5510583957863]
本稿では,最先端のデノナイジング性能を実現するために,教師なしの実用的なデノナイジング手法を提案する。
本手法では, 1つのノイズ画像と1つのノイズモデルしか必要とせず, 実際の生画像に容易にアクセス可能である。
実世界のアプリケーションにおける生画像復調性能を評価するため,500シーンのシーンを含む高品質な生画像データセットSenseNoise-500を構築した。
論文 参考訳(メタデータ) (2021-11-29T07:22:53Z) - Neighbor2Neighbor: Self-Supervised Denoising from Single Noisy Images [98.82804259905478]
Neighbor2Neighborを提示し、ノイズの多い画像のみで効果的な画像消音モデルをトレーニングします。
ネットワークのトレーニングに使用される入力とターゲットは、同じノイズ画像からサブサンプリングされた画像である。
デノイジングネットワークは、第1段階で生成されたサブサンプルトレーニングペアで訓練され、提案された正規化器は、より良いパフォーマンスのための追加の損失として訓練される。
論文 参考訳(メタデータ) (2021-01-08T02:03:25Z) - Noise2Inpaint: Learning Referenceless Denoising by Inpainting Unrolling [2.578242050187029]
本稿では,ノイズ2Inpaint (N2I) をトレーニング手法として導入し,デノナイジング問題を正規化した画像インパインティングフレームワークに再キャストする。
N2Iは、実世界のデータセットのデノベーションを成功させると同時に、純粋にデータ駆動型であるNoss2Selfと比較して詳細を保存できる。
論文 参考訳(メタデータ) (2020-06-16T18:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。