論文の概要: Creative divergent synthesis with generative models
- arxiv url: http://arxiv.org/abs/2211.08861v1
- Date: Wed, 16 Nov 2022 12:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:20:21.400989
- Title: Creative divergent synthesis with generative models
- Title(参考訳): 生成モデルを用いた創造的分岐合成
- Authors: Axel Chemla--Romeu-Santos, Philippe Esling
- Abstract要約: 機械学習のアプローチは、画像、オーディオ、ビデオなど、多くの領域で印象的な生成機能を実現している。
我々は,この複雑な目標をいかに達成できるかについて,様々な視点を提唱し,新しいトレーニング目標であるtextitBounded Adversarial Divergence (BAD) の予備的な結果を提供する。
- 参考スコア(独自算出の注目度): 3.655021726150369
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning approaches now achieve impressive generation capabilities in
numerous domains such as image, audio or video. However, most training \&
evaluation frameworks revolve around the idea of strictly modelling the
original data distribution rather than trying to extrapolate from it. This
precludes the ability of such models to diverge from the original distribution
and, hence, exhibit some creative traits. In this paper, we propose various
perspectives on how this complicated goal could ever be achieved, and provide
preliminary results on our novel training objective called \textit{Bounded
Adversarial Divergence} (BAD).
- Abstract(参考訳): 機械学習のアプローチは、画像、オーディオ、ビデオなど多くの領域で印象的な生成能力を実現している。
しかし、ほとんどのトレーニング用\&評価フレームワークは、それを外挿するのではなく、元のデータ分布を厳密にモデル化するというアイデアに基づいています。
これは、そのようなモデルが元の分布から分岐することを妨げるため、いくつかの創造的な特性を示す。
本稿では,この複雑な目標を実現するための様々な視点を提案し,新しいトレーニング目標である「textit{Bounded Adversarial Divergence} (BAD)」の予備的結果を提供する。
関連論文リスト
- Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - SODA: Bottleneck Diffusion Models for Representation Learning [75.7331354734152]
本稿では,表現学習のための自己教師付き拡散モデルSODAを紹介する。
このモデルには、ソースビューをコンパクトな表現に蒸留するイメージエンコーダが組み込まれており、関連する新規ビューの生成を導く。
エンコーダと復調復調復調復調復調復調復調復調復号器の密集ボトルネックを付与することにより,拡散モデルを強力な表現学習器に変換することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T18:53:34Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Reinforcement Learning for Generative AI: A Survey [40.21640713844257]
この調査は、さまざまなアプリケーション領域にまたがるハイレベルなレビューに光を当てることを目的としています。
この領域では厳格な分類法を提供し、様々なモデルや応用について十分なカバレッジを提供している。
この調査は、現在のモデルの限界に対処し、生成AIのフロンティアを拡大する可能性のある潜在的方向を示すことで締めくくられる。
論文 参考訳(メタデータ) (2023-08-28T06:15:14Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Exploring Compositional Visual Generation with Latent Classifier
Guidance [19.48538300223431]
我々は、潜在表現生成の非線形ナビゲーションを容易にするために、潜時拡散モデルと補助潜時分類器を訓練する。
潜在分類器ガイダンスにより達成された条件付き生成は、トレーニング中の条件付きログ確率の低い境界を確実に最大化することを示す。
遅延分類器誘導に基づくこのパラダイムは、事前学習された生成モデルに非依存であり、実画像と合成画像の逐次的操作と画像生成の両面での競合結果を示す。
論文 参考訳(メタデータ) (2023-04-25T03:02:58Z) - Challenges in creative generative models for music: a divergence
maximization perspective [3.655021726150369]
創造的な実践における生成機械学習モデルの開発は、芸術家、実践家、パフォーマーの間でより多くの関心を集めている。
ほとんどのモデルは、トレーニングデータセットで定義されたドメインの外にあるコンテンツを生成することができない。
本稿では,ML目的の新しい汎用的な定式化から始まる,新たな予測フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:02:43Z) - Composing Ensembles of Pre-trained Models via Iterative Consensus [95.10641301155232]
本稿では,異なる事前学習モデルのアンサンブルを構成するための統一的なフレームワークを提案する。
事前学習したモデルを「ジェネレータ」あるいは「スコーラ」として使用し、クローズドループ反復コンセンサス最適化により構成する。
スコアラーのアンサンブルによって達成されたコンセンサスは、シングルスコアラーのフィードバックよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-20T18:46:31Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Active Divergence with Generative Deep Learning -- A Survey and Taxonomy [0.6435984242701043]
本報告では, 能動発散技術の現状について, 分類学および包括的調査を行う。
我々は、計算創造性研究者がこれらの手法を進歩させ、真に創造的なシステムで深層生成モデルを使用する可能性を強調した。
論文 参考訳(メタデータ) (2021-07-12T17:29:28Z) - Zero-shot Neural Passage Retrieval via Domain-targeted Synthetic
Question Generation [10.324402925019946]
ニューラルネットワークモデルの普及に対する大きな障害は、従来の用語ベースのテクニックを超えるために、大規模な教師付きトレーニングセットが必要であることである。
本稿では,このギャップを埋めるために合成質問生成を用いる経路探索のためのゼロショット学習手法を提案する。
論文 参考訳(メタデータ) (2020-04-29T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。