論文の概要: E.A.R.T.H.: Structuring Creative Evolution through Model Error in Generative AI
- arxiv url: http://arxiv.org/abs/2507.18004v2
- Date: Thu, 31 Jul 2025 22:39:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.55984
- Title: E.A.R.T.H.: Structuring Creative Evolution through Model Error in Generative AI
- Title(参考訳): E.A.R.T.H.:生成AIにおけるモデルエラーによる創造的進化の構造化
- Authors: Yusen Peng, Shuhua Mao,
- Abstract要約: E.A.R.T.フレームワークは、モデル生成エラーをエラー生成、増幅、精細化、変換、ハーネスフィードバックを通じて創造的資産に変換する。
人間の評価では、生成したアウトプットは一貫して高い評価を受けており、強い創造的品質と明快さを示している。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can AI move beyond imitation toward genuine creativity? This paper proposes the E.A.R.T.H. framework, a five-stage generative pipeline that transforms model-generated errors into creative assets through Error generation, Amplification, Refine selection, Transform, and Harness feedback. Drawing on cognitive science and generative modeling, we posit that "creative potential hides in failure" and operationalize this via structured prompts, semantic scoring, and human-in-the-loop evaluation. Implemented using LLaMA-2-7B-Chat, SBERT, BERTScore, CLIP, BLIP-2, and Stable Diffusion, the pipeline employs a composite reward function based on novelty, surprise, and relevance. At the Refine stage, creativity scores increase by 52.5% (1.179 to 1.898, t = -5.56, p < 0.001), with final outputs reaching 2.010 - a 70.4% improvement. Refined slogans are 48.4% shorter, 40.7% more novel, with only a 4.0% drop in relevance. Cross-modal tests show strong slogan-to-image alignment (CLIPScore: 0.249; BERTScore F1: 0.816). In human evaluations, the generated outputs were consistently rated highly, demonstrating strong creative quality and expressive clarity. Feedback highlights stylistic precision and emotional resonance. These results demonstrate that error-centered, feedback-driven generation enhances creativity, offering a scalable path toward self-evolving, human-aligned creative AI.
- Abstract(参考訳): AIはどのようにして模倣を越えて真の創造性へと移行できるのか?
本稿では、モデル生成エラーをエラー生成、増幅、精選、変換、ハーネスフィードバックを通じて創造的資産に変換する5段階生成パイプラインであるE.A.R.T.H.フレームワークを提案する。
認知科学と生成モデルに基づいて、「創造の可能性は失敗に隠れる」と仮定し、構造化されたプロンプト、セマンティックスコアリング、そして、ループ内の人間による評価を通じてこれを運用する。
LLaMA-2-7B-Chat、SBERT、BERTScore、CLIP、BLIP-2、およびStable Diffusionを使用して実装されたパイプラインは、新規性、サプライズ、および関連性に基づいた複合報酬関数を使用する。
Refineの段階では、クリエイティビティスコアは52.5%(1.179 to 1.898, t = -5.56, p < 0.001)増加し、最終的な出力は2.010 - 70.4%改善した。
精製されたスローガンは48.4%が短く、40.7%が新規で、関連性は4.0%しか低下していない。
クロスモーダル試験は強スローガン・イメージアライメント(CLIPScore: 0.249; BERTScore F1: 0.816)を示す。
人間の評価では、生成した出力は一貫して高い評価を受け、強い創造的品質と表現力の明快さを示した。
フィードバックは、スタイリスティックな精度と感情的共鳴を強調する。
これらの結果は、エラー中心のフィードバック駆動型生成が創造性を高め、自己進化的で人間に沿ったクリエイティブAIへのスケーラブルなパスを提供することを示している。
関連論文リスト
- Cooking Up Creativity: A Cognitively-Inspired Approach for Enhancing LLM Creativity through Structured Representations [53.950760059792614]
大きな言語モデル(LLM)は数え切れないほど多くのタスクで優れていますが、創造性に苦慮しています。
我々は、LLMと構造化表現を結合し、より創造的で多様なアイデアを生み出すために認知的にインスピレーションを与える新しいアプローチを導入する。
我々は、創造的なレシピを生成するモデルであるDishCOVERを用いて、料理分野における我々のアプローチを実証する。
論文 参考訳(メタデータ) (2025-04-29T11:13:06Z) - Probing and Inducing Combinational Creativity in Vision-Language Models [52.76981145923602]
VLM(Vision-Language Models)の最近の進歩は、それらのアウトプットが組合せの創造性を反映しているかという議論を引き起こしている。
本稿では,創造的プロセスを3つのレベルに分解するIEIフレームワークを提案する。
このフレームワークを検証するために、IEIフレームワークに従って注釈付けされた666人のアーティストによる視覚マッシュアップの高品質データセットであるCreativeMashupをキュレートする。
論文 参考訳(メタデータ) (2025-04-17T17:38:18Z) - Has the Creativity of Large-Language Models peaked? An analysis of inter- and intra-LLM variability [23.509294903995745]
実証された2つのクリエイティビティ・アセスメントにおいて,広く使用されている大規模言語モデル(LLM)を14種類評価した。
予想とは対照的に、過去18~24ヶ月でクリエイティブなパフォーマンスが向上した証拠は見つからなかった。
同じプロンプトを与えられたLLMは、平均以下からオリジナルまで、アウトプットを生成できる。
論文 参考訳(メタデータ) (2025-04-10T19:18:56Z) - The Dynamic Creativity of Proto-artifacts in Generative Computational Co-creation [0.22940141855172028]
本稿では,計算共創過程において生成する中間人工物の創造性を決定するのに必要な属性について検討する。
新エレクトロニック・アシスタント(NEA)による未完成曲の聴取実験
その結果, 成果物の価値と新規性に基づく2つの属性定義が, 革新的製品に繋がる未完成の作業を評価するのに十分であることが判明した。
論文 参考訳(メタデータ) (2024-11-25T20:44:33Z) - Redefining <Creative> in Dictionary: Towards an Enhanced Semantic Understanding of Creative Generation [39.93527514513576]
Creative'' は人間と拡散モデルの両方にとって本質的に抽象的な概念である。
現在の手法は、創造的な効果を達成するために参照プロンプトやイメージに大きく依存している。
CreTokを紹介します。これは、新しいトークンであるtexttCreTok>として、創造性を再定義することで、拡散モデルにメタ創造性をもたらすものです。
コードはhttps://github.com/fu-feng/CreTok.comで公開される。
論文 参考訳(メタデータ) (2024-10-31T17:19:03Z) - Creativity Has Left the Chat: The Price of Debiasing Language Models [1.223779595809275]
大規模言語モデル(LLM)の創造性に対する人間からのフィードバックからの強化学習の意図しない結果について検討する。
我々の発見は、コピーライティング、広告作成、顧客ペルソナ生成といったクリエイティブなタスクにLLMを頼っているマーケターにとって大きな意味を持つ。
論文 参考訳(メタデータ) (2024-06-08T22:14:51Z) - Automating Creativity [1.0200170217746136]
本稿では,AIを創造的から創造的へと進化させるために必要なものについて考察する。
我々は,GenAIの創造的能力を開発するために,3つの迅速な応答・逆エンジニアリングフレームワークを開発する。
論文 参考訳(メタデータ) (2024-05-11T05:05:10Z) - A New Creative Generation Pipeline for Click-Through Rate with Stable
Diffusion Model [8.945197427679924]
従来のAIベースのアプローチは、デザイナーからの美的知識を限定しながら、ユーザー情報を考慮しないという同じ問題に直面している。
結果を最適化するために、従来の方法で生成されたクリエイティブは、クリエイティブランキングモデルと呼ばれる別のモジュールによってランク付けされる。
本稿では,クリエイティビティ生成段階においてCTRを改善することを目的とした,Click-Through Rate (CG4CTR) のための新しいCreative Generationパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-17T03:27:39Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Exploring Perspectives on the Impact of Artificial Intelligence on the
Creativity of Knowledge Work: Beyond Mechanised Plagiarism and Stochastic
Parrots [11.104666702713793]
創造性と独創性は、オブジェクトの注目に値する、あるいは情報理論的な性質の定義にどのように抵抗するかを示します。
AIは、知識労働を物質生産から重要な統合へとシフトさせることを提案します。
論文 参考訳(メタデータ) (2023-07-20T10:26:57Z) - FActScore: Fine-grained Atomic Evaluation of Factual Precision in Long
Form Text Generation [176.56131810249602]
大規模言語モデル(LM)が生成する長文の事実性を評価することは簡単ではない。
FACTSCOREは、世代を一連の原子事実に分解し、信頼できる知識ソースによって支持される原子事実の割合を計算する新しい評価手法である。
論文 参考訳(メタデータ) (2023-05-23T17:06:00Z) - A Self-Paced Mixed Distillation Method for Non-Autoregressive Generation [135.84684279852098]
非自己回帰(NAR)モデルは、様々な言語生成タスクにおけるオート回帰(AR)モデルの性能が著しく低い。
NARモデルの中で、BANGは英語未ラベルの原文コーパス上で最初の大規模事前学習モデルである。
そこで本研究では,BANGの生成品質をさらに向上させる,自己ペースト混合蒸留法を提案する。
論文 参考訳(メタデータ) (2022-05-23T09:54:53Z) - Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning [64.6217849133164]
創造的プロセスを特定し,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセット全体にわたる通常のサンプルや非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2022-03-01T15:07:14Z) - Towards creativity characterization of generative models via group-based
subset scanning [51.84144826134919]
創造的プロセスを定量化し,検出し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセットをまたいだ通常または非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2021-04-01T14:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。