論文の概要: Challenges in creative generative models for music: a divergence
maximization perspective
- arxiv url: http://arxiv.org/abs/2211.08856v1
- Date: Wed, 16 Nov 2022 12:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 14:37:46.196016
- Title: Challenges in creative generative models for music: a divergence
maximization perspective
- Title(参考訳): 音楽の創造的生成モデルにおける挑戦--発散最大化の観点から
- Authors: Axel Chemla--Romeu-Santos, Philippe Esling
- Abstract要約: 創造的な実践における生成機械学習モデルの開発は、芸術家、実践家、パフォーマーの間でより多くの関心を集めている。
ほとんどのモデルは、トレーニングデータセットで定義されたドメインの外にあるコンテンツを生成することができない。
本稿では,ML目的の新しい汎用的な定式化から始まる,新たな予測フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.655021726150369
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The development of generative Machine Learning (ML) models in creative
practices, enabled by the recent improvements in usability and availability of
pre-trained models, is raising more and more interest among artists,
practitioners and performers. Yet, the introduction of such techniques in
artistic domains also revealed multiple limitations that escape current
evaluation methods used by scientists. Notably, most models are still unable to
generate content that lay outside of the domain defined by the training
dataset. In this paper, we propose an alternative prospective framework,
starting from a new general formulation of ML objectives, that we derive to
delineate possible implications and solutions that already exist in the ML
literature (notably for the audio and musical domain). We also discuss existing
relations between generative models and computational creativity and how our
framework could help address the lack of creativity in existing models.
- Abstract(参考訳): 創造的実践における生成的機械学習(ml)モデルの開発は、最近のユーザビリティの向上と事前学習モデルの可用性によって実現され、アーティスト、実践者、パフォーマーの間で関心が高まっている。
しかし、こうした技法を芸術領域に導入することで、科学者が使用する現在の評価方法から逃れる複数の制限も明らかになった。
特に、ほとんどのモデルは、トレーニングデータセットで定義されたドメインの外にあるコンテンツを生成することができない。
本稿では,ML文献(特に音声と音楽の分野)にすでに存在する意味や解決法を明確にすることを目的として,ML目的の新たな汎用的な定式化から始まる,新たな予測フレームワークを提案する。
また,生成モデルと計算クリエイティビティの関係と,既存のモデルにおける創造性の欠如に対する我々のフレームワークの対応について論じた。
関連論文リスト
- Untapped Potential in Self-Optimization of Hopfield Networks: The Creativity of Unsupervised Learning [0.6144680854063939]
我々は、自己最適化(SO)モデルが創造的プロセスに必要な十分な条件を満たすことを論じる。
我々は、SOモデルが学習する人工システムにおける創造的行動の出現をシミュレートし、理解することを可能にすると結論付けた。
論文 参考訳(メタデータ) (2024-12-10T11:58:39Z) - Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Recommendation with Generative Models [35.029116616023586]
生成モデルは、統計分布から学習し、サンプリングすることで、データの新しいインスタンスを作成することができるAIモデルである。
これらのモデルは、画像生成、テキスト合成、音楽合成など、様々な領域に応用されている。
レコメンデーションシステムでは、Gen-RecSysと呼ばれる生成モデルは、レコメンデーションの正確性と多様性を改善する。
論文 参考訳(メタデータ) (2024-09-18T18:29:15Z) - Generative AI in Vision: A Survey on Models, Metrics and Applications [0.0]
生成AIモデルは、現実的で多様なデータサンプルの作成を可能にすることで、さまざまな分野に革命をもたらした。
これらのモデルの中で、拡散モデルは高品質な画像、テキスト、オーディオを生成するための強力なアプローチとして現れている。
本稿では,AI拡散モデルとレガシモデルについて概観し,その基礎となる技術,異なる領域にわたる応用,課題について概説する。
論文 参考訳(メタデータ) (2024-02-26T07:47:12Z) - Learning from models beyond fine-tuning [78.20895343699658]
Learn From Model (LFM) は、モデルインターフェースに基づいた基礎モデル(FM)の研究、修正、設計に焦点を当てている。
LFM技術の研究は、モデルチューニング、モデル蒸留、モデル再利用、メタラーニング、モデル編集の5つの分野に大別できる。
本稿では, LFM の観点から, FM に基づく現在の手法を概観する。
論文 参考訳(メタデータ) (2023-10-12T10:20:36Z) - ConceptLab: Creative Concept Generation using VLM-Guided Diffusion Prior
Constraints [56.824187892204314]
我々は創造的なテキスト・画像生成の課題を提示し、幅広いカテゴリの新しいメンバーを創り出そうとする。
本稿では, 先行拡散の出力空間上での最適化プロセスとして, 創造的生成問題を定式化できることを示す。
我々は、最適化問題に新たな制約を適応的に付加する質問応答型視覚言語モデル(VLM)を導入し、よりユニークな生成物を発見するようモデルに促す。
論文 参考訳(メタデータ) (2023-08-03T17:04:41Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Creative divergent synthesis with generative models [3.655021726150369]
機械学習のアプローチは、画像、オーディオ、ビデオなど、多くの領域で印象的な生成機能を実現している。
我々は,この複雑な目標をいかに達成できるかについて,様々な視点を提唱し,新しいトレーニング目標であるtextitBounded Adversarial Divergence (BAD) の予備的な結果を提供する。
論文 参考訳(メタデータ) (2022-11-16T12:12:31Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。