論文の概要: ChatGPT4PCG Competition: Character-like Level Generation for Science
Birds
- arxiv url: http://arxiv.org/abs/2303.15662v1
- Date: Tue, 28 Mar 2023 01:07:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 16:48:59.077794
- Title: ChatGPT4PCG Competition: Character-like Level Generation for Science
Birds
- Title(参考訳): chatgpt4pcgコンペティション:science birdsのキャラクターライクなレベル生成
- Authors: Pittawat Taveekitworachai, Febri Abdullah, Mury F. Dewantoro, Ruck
Thawonmas, Julian Togelius, Jochen Renz
- Abstract要約: 本稿では2023年のIEEE Conference on GamesでChatGPT4PCGコンペティションを開催する。
この競争の目的は参加者がChatGPTの効果的なプロンプトを作成することである。
ChatGPTはOpenAIが開発した会話エージェントである。
- 参考スコア(独自算出の注目度): 6.19614009389959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the first ChatGPT4PCG Competition at the 2023 IEEE
Conference on Games. The objective of this competition is for participants to
create effective prompts for ChatGPT--enabling it to generate Science Birds
levels with high stability and character-like qualities--fully using their
creativity as well as prompt engineering skills. ChatGPT is a conversational
agent developed by OpenAI. Science Birds is selected as the competition
platform because designing an Angry Birds-like level is not a trivial task due
to the in-game gravity; the playability of the levels is determined by their
stability. To lower the entry barrier to the competition, we limit the task to
the generation of capitalized English alphabetical characters. Here, the
quality of the generated levels is determined by their stability and similarity
to the given characters. A sample prompt is provided to participants for their
reference. An experiment is conducted to determine the effectiveness of its
modified versions on level stability and similarity by testing them on several
characters. To the best of our knowledge, we believe that ChatGPT4PCG is the
first competition of its kind and hope to inspire enthusiasm for prompt
engineering in procedural content generation.
- Abstract(参考訳): 本稿では2023年のIEEE Conference on GamesでChatGPT4PCGコンペティションを開催する。
このコンペティションの目的は、参加者がChatGPTの効果的なプロンプトを作成することであり、高い安定性とキャラクタライクな品質でScience Birdsレベルを創出することである。
ChatGPTはOpenAIが開発した会話エージェントである。
Science Birdsは、Angry Birdsのようなレベルを設計することはゲーム内重力による簡単な作業ではないため、競争プラットフォームとして選択される。
競争への参入障壁を低くするため、我々はこの課題を大文字化英字文字の生成に限定する。
ここで、生成されたレベルの品質は、与えられた文字の安定性と類似性によって決定される。
参加者に参照のためのサンプルプロンプトが提供される。
複数の文字でテストすることで,修正版がレベル安定性と類似性に及ぼす影響を判定する実験を行った。
私たちの知る限り、ChatGPT4PCGはこの種のコンペティションとしては初めてであり、手続き的コンテンツ生成における迅速なエンジニアリングに対する熱意を刺激することを期待しています。
関連論文リスト
- ChatGPT and Its Educational Impact: Insights from a Software Development Competition [4.269870451257318]
われわれはChatGPTを利用したソフトウェア開発コンペティションを組織し、4週間にわたって36人の学生を巻き込んだ。
コンペティションの結果,ChatGPTを様々な開発段階に幅広く利用している学生は,プロジェクト完了率が高く,スコアも良好であることがわかった。
論文 参考訳(メタデータ) (2024-08-22T05:59:59Z) - VALL-E 2: Neural Codec Language Models are Human Parity Zero-Shot Text to Speech Synthesizers [119.89284877061779]
本稿では,ゼロショット音声合成(TTS)の節目となる,ニューラルネットワークモデルの最新の進歩であるVALL-E 2を紹介する。
VALL-E 2は、その複雑さや反復句によって伝統的に困難な文であっても、高品質な音声を一貫して合成する。
この研究の利点は、失語症のある人や筋萎縮性側索硬化症を持つ人のためのスピーチを生成するなど、貴重な努力に寄与する可能性がある。
論文 参考訳(メタデータ) (2024-06-08T06:31:03Z) - ChatGPT4PCG 2 Competition: Prompt Engineering for Science Birds Level
Generation [5.283007370413379]
本稿では2024年のIEEE Conference on Gamesで第2回ChatGPT4PCGコンテストを開催する。
参加者の提出に対して、より柔軟なフォーマットを可能にするとともに、新しい評価基準を導入する。
各種PE手法の実装例をPythonで提供し,その予備性能を評価する。
論文 参考訳(メタデータ) (2024-03-05T02:58:57Z) - Challenge design roadmap [0.25631808142941404]
この章は、挑戦のための強力な計画を作成するためのガイドラインを提供する。
これはKaggle 1やChaLearn 2といった組織による準備ガイドラインを引き合いに出している。
論文 参考訳(メタデータ) (2024-01-15T10:58:30Z) - Argue with Me Tersely: Towards Sentence-Level Counter-Argument
Generation [62.069374456021016]
本稿では,文レベル逆問題生成のためのArgTerselyベンチマークを提案する。
また,Arg-LlaMAによる高品質な逆問題生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T06:51:34Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - The FruitShell French synthesis system at the Blizzard 2023 Challenge [12.459890525109646]
本稿では,Blizzard Challenge 2023のためのフランス語音声合成システムを提案する。
この課題は、女性話者から高品質な音声を生成することと、特定の個人によく似た音声を生成することの2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-09-01T02:56:20Z) - Humans are Still Better than ChatGPT: Case of the IEEEXtreme Competition [6.695727336249284]
本稿では,ChatGPTに適したタスク,特にコンピュータプログラミングの分野において,人間のパフォーマンスが優れていることを示す。
我々の経験的分析は、一般的な信念に反して、人間のプログラマはChatGPTに対する競争力を維持しているという証拠を提供する。
本稿では、ChatGPTのようなAIベースの言語モデルの限界と潜在的な改善領域について、これらの知見を詳述する。
論文 参考訳(メタデータ) (2023-05-10T08:16:46Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。