論文の概要: Creative Agents: Simulating the Systems Model of Creativity with Generative Agents
- arxiv url: http://arxiv.org/abs/2411.17065v1
- Date: Tue, 26 Nov 2024 03:06:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:34:00.614688
- Title: Creative Agents: Simulating the Systems Model of Creativity with Generative Agents
- Title(参考訳): 創造エージェント:生成エージェントによる創造性のシステムモデルシミュレーション
- Authors: Naomi Imasato, Kazuki Miyazawa, Takayuki Nagai, Takato Horii,
- Abstract要約: 仮想エージェントを用いた創造性のシステムモデルの実装とシミュレーションを行った。
その結果, 生成エージェントは, 創造性のシステムモデルにおいて, より優れた性能を発揮する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With the growing popularity of generative AI for images, video, and music, we witnessed models rapidly improve in quality and performance. However, not much attention is paid towards enabling AI's ability to "be creative". In this study, we implemented and simulated the systems model of creativity (proposed by Csikszentmihalyi) using virtual agents utilizing large language models (LLMs) and text prompts. For comparison, the simulations were conducted with the "virtual artists" being: 1)isolated and 2)placed in a multi-agent system. Both scenarios were compared by analyzing the variations and overall "creativity" in the generated artifacts (measured via a user study and LLM). Our results suggest that the generative agents may perform better in the framework of the systems model of creativity.
- Abstract(参考訳): 画像、ビデオ、音楽の生成AIの人気が高まり、私たちはモデルの品質とパフォーマンスが急速に向上するのを目撃した。
しかし、AIの「創造的になる」能力にはあまり注意が払われていない。
本研究では,大規模言語モデル(LLM)とテキストプロンプトを利用した仮想エージェントを用いて,創造性のシステムモデル(Csikszentmihalyiが提案する)を実装し,シミュレーションした。
比較のために, シミュレーションは, 1) アイソレーション, 2) マルチエージェントシステムに置き換わる「仮想アーティスト」を用いて行った。
両方のシナリオは、生成されたアーティファクトのバリエーションと全体的な"創造性"を分析することで比較された。
この結果から, 生成エージェントは, 創造性のシステムモデルにおいて, より優れた性能を発揮する可能性が示唆された。
関連論文リスト
- PCGRLLM: Large Language Model-Driven Reward Design for Procedural Content Generation Reinforcement Learning [4.173530949970536]
この研究はPCGRLLM(PCGRLLM)を導入し、フィードバック機構といくつかの推論に基づくプロンプトエンジニアリング技術を採用している。
2つの最先端LCMを用いた2次元環境におけるストーリー・ツー・リワード生成タスクにおける提案手法の評価を行った。
論文 参考訳(メタデータ) (2025-02-15T21:00:40Z) - Untapped Potential in Self-Optimization of Hopfield Networks: The Creativity of Unsupervised Learning [0.6144680854063939]
我々は、自己最適化(SO)モデルが創造的プロセスに必要な十分な条件を満たすことを論じる。
我々は、SOモデルが学習する人工システムにおける創造的行動の出現をシミュレートし、理解することを可能にすると結論付けた。
論文 参考訳(メタデータ) (2024-12-10T11:58:39Z) - OpenWebVoyager: Building Multimodal Web Agents via Iterative Real-World Exploration, Feedback and Optimization [66.22117723598872]
マルチモーダルWebエージェントの開発を容易にするために設計されたオープンソースフレームワークを紹介する。
まず、基本モデルを模倣学習で訓練し、基礎能力を得る。
次に、エージェントにオープンウェブを探索させ、その軌道に関するフィードバックを収集する。
論文 参考訳(メタデータ) (2024-10-25T15:01:27Z) - Unbounded: A Generative Infinite Game of Character Life Simulation [68.37260000219479]
生成モデルを用いて,有限なハードコードシステムの境界を超越したゲームである生成無限ゲームの概念を導入する。
我々は、生成AIの最近の進歩を活用して、生成モデルに完全にカプセル化されたキャラクターライフシミュレーションゲームUnboundedを作成する。
論文 参考訳(メタデータ) (2024-10-24T17:59:31Z) - xLAM: A Family of Large Action Models to Empower AI Agent Systems [111.5719694445345]
AIエージェントタスク用に設計された大規模なアクションモデルであるxLAMをリリースする。
xLAMは、複数のエージェント能力ベンチマークで例外的なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-09-05T03:22:22Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Can AI Be as Creative as Humans? [84.43873277557852]
理論的には、AIは人間の創造者によって生成されたデータに適切に適合できるという条件の下で、人間と同じくらい創造的になれることを証明しています。
AIの創造性に関する議論は、十分な量のデータに適合する能力の問題に縮小されている。
論文 参考訳(メタデータ) (2024-01-03T08:49:12Z) - Large Language Models Empowered Agent-based Modeling and Simulation: A
Survey and Perspectives [35.04018349811483]
大きな言語モデルをエージェントベースのモデリングとシミュレーションに統合することは、シミュレーション能力を向上するための有望な道を示す。
まず,エージェントベースモデリングとシミュレーション,および大規模言語モデル駆動エージェントの背景を紹介する。
最も重要なことは、複数のシナリオにおける大規模言語モデルを利用したエージェントベースのモデリングとシミュレーションの最近の研究の概要を包括的に示すことである。
論文 参考訳(メタデータ) (2023-12-19T09:06:45Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Multiscale Generative Models: Improving Performance of a Generative
Model Using Feedback from Other Dependent Generative Models [10.053377705165786]
実世界の相互作用を反映した相互作用生成モデル(GAN)の構築に向けた第一歩を踏み出す。
我々は,複数の低レベル GAN の出力に高レベル GAN を条件付けした階層的なセットアップを構築し,解析する。
本稿では,より高レベルなGANからのフィードバックを用いて,低レベルなGANの性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2022-01-24T13:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。