論文の概要: OptiGAN: Generative Adversarial Networks for Goal Optimized Sequence
Generation
- arxiv url: http://arxiv.org/abs/2004.07534v10
- Date: Wed, 18 Nov 2020 20:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:00:57.518266
- Title: OptiGAN: Generative Adversarial Networks for Goal Optimized Sequence
Generation
- Title(参考訳): OptiGAN: ゴール最適化シーケンス生成のためのジェネレータネットワーク
- Authors: Mahmoud Hossam, Trung Le, Viet Huynh, Michael Papasimeon, and Dinh
Phung
- Abstract要約: 我々は、GAN(Generative Adversarial Networks)とRL(Reinforcement Learning)の両方を組み込んだ生成モデルOptiGANを紹介する。
我々は本モデルをテキストおよび実数値シーケンス生成に適用し、GANおよびRLベースラインよりも高い所望のスコアを得られるようにした。
- 参考スコア(独自算出の注目度): 20.009587535006045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the challenging problems in sequence generation tasks is the optimized
generation of sequences with specific desired goals. Current sequential
generative models mainly generate sequences to closely mimic the training data,
without direct optimization of desired goals or properties specific to the
task. We introduce OptiGAN, a generative model that incorporates both
Generative Adversarial Networks (GAN) and Reinforcement Learning (RL) to
optimize desired goal scores using policy gradients. We apply our model to text
and real-valued sequence generation, where our model is able to achieve higher
desired scores out-performing GAN and RL baselines, while not sacrificing
output sample diversity.
- Abstract(参考訳): シーケンス生成タスクの難題の1つは、特定の目的を持ったシーケンスを最適化した生成である。
現在の逐次生成モデルは、タスク特有の目的や特性を直接最適化することなく、トレーニングデータを密接に模倣するためのシーケンスを生成する。
本稿では,GAN(Generative Adversarial Networks)とRL(Reinforcement Learning)の両方を組み込んだ生成モデルOptiGANを紹介する。
我々のモデルはテキストおよび実数値シーケンス生成に適用し、ganおよびrlベースラインよりも高い所望のスコアを達成できるが、出力サンプルの多様性は犠牲にしない。
関連論文リスト
- Towards Improved Preference Optimization Pipeline: from Data Generation to Budget-Controlled Regularization [14.50339880957898]
我々は、嗜好データ生成と正規化の訓練技術について、より深く検討することで、嗜好最適化パイプラインの改善を目指している。
選好データ生成のために、ペアワイズ比較信号を用いて完了の選好ランキングを導出する反復的なペアワイズランキング機構を提案する。
正規化のトレーニングでは、LLMが好むサンプルの確率をわずかに減少させると、好みの最適化がよりよく収束する傾向が観察される。
論文 参考訳(メタデータ) (2024-11-07T23:03:11Z) - Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Auto-GDA: Automatic Domain Adaptation for Efficient Grounding Verification in Retrieval Augmented Generation [13.120801609024147]
検索拡張生成(RAG)は,大規模言語モデル(LLM)出力の現実性を高めることが示されている。
RAG入力は、NLIモデルのトレーニングに使用されるほとんどのデータセットよりも複雑である。
教師なしドメイン適応を実現するために自動生成ドメイン適応(Auto-GDA)を導入する。
論文 参考訳(メタデータ) (2024-10-04T14:21:27Z) - Bridging Model-Based Optimization and Generative Modeling via Conservative Fine-Tuning of Diffusion Models [54.132297393662654]
本稿では,RLによる報酬モデルの最適化により,最先端拡散モデルを微調整するハイブリッド手法を提案する。
我々は、報酬モデルの補間能力を活用し、オフラインデータにおいて最良の設計を上回るアプローチの能力を実証する。
論文 参考訳(メタデータ) (2024-05-30T03:57:29Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - Evolutionary Solution Adaption for Multi-Objective Metal Cutting Process
Optimization [59.45414406974091]
我々は,従来の最適化タスクから解を転送するアルゴリズムの能力を研究することのできる,システムの柔軟性のためのフレームワークを提案する。
NSGA-IIの柔軟性を2つの変種で検討し,1)2つのタスクの解を同時に最適化し,より適応性が高いと期待されるソース間の解を得る,2)活性化あるいは非活性化の異なる可能性に対応する能動的非アクティブなジェノタイプについて検討した。
その結果,標準NSGA-IIによる適応は目標目標への最適化に必要な評価回数を大幅に削減し,提案した変種は適応コストをさらに向上することがわかった。
論文 参考訳(メタデータ) (2023-05-31T12:07:50Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Towards Optimization and Model Selection for Domain Generalization: A
Mixup-guided Solution [43.292274574847234]
そこで本研究では,ドメイン一般化のためのMixupガイドによる最適化と選択手法を提案する。
最適化のために、好みの方向を導出するアウト・オブ・ディストリビューション・データセットを利用する。
モデル選択のために、ターゲット分布に近づいた検証データセットを生成する。
論文 参考訳(メタデータ) (2022-09-01T02:18:00Z) - One-Shot Adaptation of GAN in Just One CLIP [51.188396199083336]
本稿では,CLIP空間を統一した単一ショットGAN適応方式を提案する。
具体的には、CLIP誘導潜在最適化を用いて、ソースジェネレータ内の参照画像検索という2段階のトレーニング戦略を採用する。
対象のテクスチャで多様な出力を生成し,質的かつ定量的にベースラインモデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T13:03:06Z) - Monte Carlo Filtering Objectives: A New Family of Variational Objectives
to Learn Generative Model and Neural Adaptive Proposal for Time Series [4.92575823723555]
パラメトリック生成モデルを共同学習するためのMCFO(Monte Carlo filtering objectives)を提案する。
MCFOは、現在最先端の目的において、シークエンシャルモンテカルロを超える可能性推定器の選択を拡張している。
提案したMCFOと勾配推定が,効率的で安定したモデル学習につながることを示す。
論文 参考訳(メタデータ) (2021-05-20T14:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。