論文の概要: LLM-based multi-agent poetry generation in non-cooperative environments
- arxiv url: http://arxiv.org/abs/2409.03659v2
- Date: Fri, 6 Sep 2024 06:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 13:05:05.317357
- Title: LLM-based multi-agent poetry generation in non-cooperative environments
- Title(参考訳): 非協調環境におけるLLMに基づくマルチエージェント詩生成
- Authors: Ran Zhang, Steffen Eger,
- Abstract要約: 我々は、多様性を促進するために、協力的相互作用以外の非協力的相互作用を強調した社会学習に基づく枠組みを導入する。
我々の実験は、詩生成のための非協調環境におけるマルチエージェントシステムへの最初の試みである。
本稿では,社会学習を取り入れた自動詩生成などの創造的課題のパラダイムシフトを論じる。
- 参考スコア(独自算出の注目度): 23.236900735217986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite substantial progress of large language models (LLMs) for automatic poetry generation, the generated poetry lacks diversity while the training process differs greatly from human learning. Under the rationale that the learning process of the poetry generation systems should be more human-like and their output more diverse and novel, we introduce a framework based on social learning where we emphasize non-cooperative interactions besides cooperative interactions to encourage diversity. Our experiments are the first attempt at LLM-based multi-agent systems in non-cooperative environments for poetry generation employing both TRAINING-BASED agents (GPT-2) and PROMPTING-BASED agents (GPT-3 and GPT-4). Our evaluation based on 96k generated poems shows that our framework benefits the poetry generation process for TRAINING-BASED agents resulting in 1) a 3.0-3.7 percentage point (pp) increase in diversity and a 5.6-11.3 pp increase in novelty according to distinct and novel n-grams. The generated poetry from TRAINING-BASED agents also exhibits group divergence in terms of lexicons, styles and semantics. PROMPTING-BASED agents in our framework also benefit from non-cooperative environments and a more diverse ensemble of models with non-homogeneous agents has the potential to further enhance diversity, with an increase of 7.0-17.5 pp according to our experiments. However, PROMPTING-BASED agents show a decrease in lexical diversity over time and do not exhibit the group-based divergence intended in the social network. Our paper argues for a paradigm shift in creative tasks such as automatic poetry generation to include social learning processes (via LLM-based agent modeling) similar to human interaction.
- Abstract(参考訳): 自動詩生成のための大規模言語モデル(LLM)の大幅な進歩にもかかわらず、生成された詩は多様性に欠けており、訓練過程は人間の学習と大きく異なる。
詩生成システムの学習過程は、より人間らしく、その出力はより多様で斬新であるべきだという理論的根拠のもと、我々は、多様性を促進するために協調的相互作用以外の非協調的相互作用を強調する社会学習に基づく枠組みを導入する。
本実験は, TRAINING-BASED エージェント (GPT-2) と PROMPING-BASED エージェント (GPT-3 と GPT-4) を併用した非協調的な詩生成環境における LLM ベースのマルチエージェントシステムの試みである。
96kの詩から評価したところ,本フレームワークはTRAINING-BASEDエージェントの詩生成プロセスに有効であり,1)多様性が3.0~3.7ポイント(pp)増加し,5.6~11.3ppが新鮮で新規なn-gramによる新規性の増加を示す。
TRAINING-BASEDエージェントから生成された詩は、語彙、スタイル、意味論の点で集団的な違いを示す。
本研究のフレームワークにおけるPromptting-BASEDエージェントは,非協調的環境の恩恵を受けるとともに,非均一性エージェントを用いたより多様なモデルのアンサンブルにより,多様性をさらに向上させる可能性があり,実験によると7.0-17.5pp。
しかし、Promptting-BASEDエージェントは、時間とともに語彙の多様性が低下し、ソーシャルネットワークで意図されるグループベースのばらつきは示さない。
本稿では,人的相互作用に類似した社会的学習プロセス(LLMに基づくエージェントモデリング)を取り入れた自動詩生成などの創造的タスクのパラダイムシフトを論じる。
関連論文リスト
- Spontaneous Emergence of Agent Individuality through Social Interactions in LLM-Based Communities [0.0]
本稿では,Large Language Model (LLM) ベースのエージェントを用いて,ゼロからエージェントが出現することを検討する。
このマルチエージェントシミュレーションを解析することにより、社会的規範、協力、性格特性が自然に出現する方法について、貴重な新しい知見を報告する。
論文 参考訳(メタデータ) (2024-11-05T16:49:33Z) - Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Hypothetical Minds: Scaffolding Theory of Mind for Multi-Agent Tasks with Large Language Models [4.9108308035618515]
マルチエージェント強化学習(MARL)法はマルチエージェントシステムの非定常性に対処する。
ここでは、大きな言語モデル(LLM)を活用して、これらの課題に対処できる自律エージェントを作成します。
私たちのエージェントである仮説的マインドスは、認知にインスパイアされたアーキテクチャで構成されており、知覚、記憶、階層的な2段階の抽象化計画のためのモジュラーコンポーネントを備えています。
論文 参考訳(メタデータ) (2024-07-09T17:57:15Z) - SocialGFs: Learning Social Gradient Fields for Multi-Agent Reinforcement Learning [58.84311336011451]
マルチエージェント強化学習のための新しい勾配に基づく状態表現を提案する。
オフラインサンプルからソーシャルグラデーションフィールド(SocialGF)を学習するために,デノジングスコアマッチングを採用している。
実際に、SocialGFをMAPPOなど、広く使われているマルチエージェント強化学習アルゴリズムに統合する。
論文 参考訳(メタデータ) (2024-05-03T04:12:19Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Large Language Models can Contrastively Refine their Generation for Better Sentence Representation Learning [57.74233319453229]
大規模言語モデル(LLM)は画期的な技術として登場し、それらの非並列テキスト生成能力は、基本的な文表現学習タスクへの関心を喚起している。
コーパスを生成するためにLLMの処理を分解するマルチレベルコントラスト文表現学習フレームワークであるMultiCSRを提案する。
実験の結果,MultiCSRはより高度なLCMをChatGPTの性能を超えつつ,ChatGPTに適用することで最先端の成果を得られることがわかった。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Entity Divider with Language Grounding in Multi-Agent Reinforcement
Learning [28.619845209653274]
マルチエージェント設定におけるポリシーの一般化を促進するための自然言語の利用について検討する。
マルチエージェント強化学習, エンティティディバイザ(EnDi)における言語基盤構築のための新しい枠組みを提案する。
EnDiは、エージェントがエンティティレベルで独立してサブゴナル分割を学習し、関連するエンティティに基づいて環境に作用することを可能にする。
論文 参考訳(メタデータ) (2022-10-25T11:53:52Z) - MixPoet: Diverse Poetry Generation via Learning Controllable Mixed
Latent Space [79.70053419040902]
多様な要素を吸収し,多様なスタイルを創出し,多様性を促進する新しいモデルであるMixPoetを提案する。
半教師付き変分オートエンコーダに基づいて、我々のモデルは潜在空間をいくつかの部分空間に切り離し、それぞれが敵の訓練によって1つの影響因子に条件付けされる。
中国詩の実験結果は、MixPoetが3つの最先端モデルに対して多様性と品質の両方を改善していることを示している。
論文 参考訳(メタデータ) (2020-03-13T03:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。