論文の概要: NAMeGEn: Creative Name Generation via A Novel Agent-based Multiple Personalized Goal Enhancement Framework
- arxiv url: http://arxiv.org/abs/2511.15408v1
- Date: Wed, 19 Nov 2025 13:05:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.810612
- Title: NAMeGEn: Creative Name Generation via A Novel Agent-based Multiple Personalized Goal Enhancement Framework
- Title(参考訳): NAMeGEn: エージェントベースマルチパーソナライズされたゴール強化フレームワークによる創造的名前生成
- Authors: Shanlin Zhou, Xinpeng Wang, Jianxun Lian, Zhenghao Liu, Laks V. S. Lakshmanan, Xiaoyuan Yi, Yongtao Hao,
- Abstract要約: 多様な要件を満たすために,客観的抽出,名称生成,評価を交互に行う新しいマルチエージェント最適化フレームワークであるNAMeGEnを提案する。
また、美学を強化するために17k以上の詩を用いた古典的漢詩コーパスを構築し、CBNamesを新たに導入した。
- 参考スコア(独自算出の注目度): 37.98478501585725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trained on diverse human-authored texts, Large Language Models (LLMs) unlocked the potential for Creative Natural Language Generation (CNLG), benefiting various applications like advertising and storytelling. Nevertheless, CNLG still remains difficult due to two main challenges. (1) Multi-objective flexibility: user requirements are often personalized, fine-grained, and pluralistic, which LLMs struggle to satisfy simultaneously; (2) Interpretive complexity: beyond generation, creativity also involves understanding and interpreting implicit meaning to enhance users' perception. These challenges significantly limit current methods, especially in short-form text generation, in generating creative and insightful content. To address this, we focus on Chinese baby naming, a representative short-form CNLG task requiring adherence to explicit user constraints (e.g., length, semantics, anthroponymy) while offering meaningful aesthetic explanations. We propose NAMeGEn, a novel multi-agent optimization framework that iteratively alternates between objective extraction, name generation, and evaluation to meet diverse requirements and generate accurate explanations. To support this task, we further construct a classical Chinese poetry corpus with 17k+ poems to enhance aesthetics, and introduce CBNames, a new benchmark with tailored metrics. Extensive experiments demonstrate that NAMeGEn effectively generates creative names that meet diverse, personalized requirements while providing meaningful explanations, outperforming six baseline methods spanning various LLM backbones without any training.
- Abstract(参考訳): 多様な人間によって書かれたテキストに基づいて訓練されたLarge Language Models (LLMs)は、CNLG(Creative Natural Language Generation)の可能性を解放し、広告やストーリーテリングといった様々な応用に寄与した。
しかし、CNLGは2つの大きな課題があるため、依然として困難である。
1)多目的柔軟性: ユーザ要求はパーソナライズされ, きめ細やかで, 複数主義的であり, LLMが同時に満たすのに苦慮している。
これらの課題は、特に短い形式のテキスト生成において、創造的で洞察に富んだコンテンツを生成する際に、現在の手法を著しく制限する。
そこで本研究では,中国のベビー命名課題であるCNLGタスクに焦点をあて,意味のある美的説明を提供しながら,明示的なユーザ制約(例えば,長さ,意味論,人類学)に固執する必要がある。
客観的抽出, 名前生成, 評価を反復的に交互に交互に行い, 多様な要件を満たし, 正確な説明を生成する新しいマルチエージェント最適化フレームワークであるNAMeGEnを提案する。
この課題を支援するために,17k以上の詩を収録した漢詩コーパスを新たに構築し,審美性を高めるとともに,測定基準を調整した新しいベンチマークCBNamesを導入する。
大規模な実験では、NAMeGEnは多様でパーソナライズされた要件を満たす創造的な名前を効果的に生成し、意味のある説明を提供し、トレーニングなしで様々なLSMバックボーンにまたがる6つのベースラインメソッドを上回ります。
関連論文リスト
- Breaking Thought Patterns: A Multi-Dimensional Reasoning Framework for LLMs [3.5056249219229296]
大規模言語モデル(LLM)は、しばしば厳格な推論プロセスによって制約され、創造的な応答を生成する能力を制限する。
これを解決するために、LADDERと呼ばれる新しいフレームワークを提案し、Chain-of-Thought(CoT)推論、Mixture of Experts(MoE)モデル、多次元アップ/ダウンサンプリング戦略を組み合わせた。
論文 参考訳(メタデータ) (2025-06-16T07:59:51Z) - Multi-Novelty: Improve the Diversity and Novelty of Contents Generated by Large Language Models via inference-time Multi-Views Brainstorming [3.591342811819669]
LLM(Large Language Models)は、正確で流動的なテキストを生成するのに顕著な習熟度を示す。
彼らはしばしば多様性と斬新さと闘い、反復的あるいは過度に決定論的反応をもたらす。
多様な視点でインプットプロンプトを強化する新しい手法である推論時マルチビューブレインストーミング手法を導入する。
論文 参考訳(メタデータ) (2025-02-18T10:04:20Z) - GLDesigner: Leveraging Multi-Modal LLMs as Designer for Enhanced Aesthetic Text Glyph Layouts [53.568057283934714]
本稿では,コンテンツ対応のテキストロゴレイアウトを生成するVLM(Vision-Language Model)ベースのフレームワークを提案する。
本稿では,複数のグリフ画像を同時に処理するための計算コストを削減する2つのモデル手法を提案する。
本モデルでは,既存の公開データセットの5倍の広義のテキストロゴデータセットを2つ構築する。
論文 参考訳(メタデータ) (2024-11-18T10:04:10Z) - Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Characterising the Creative Process in Humans and Large Language Models [6.363158395541767]
本研究では,人間とLLMが交互利用課題における意味空間を探索する方法を自動評価する手法を提案する。
文埋め込みを用いて応答カテゴリを識別し、ジャンププロファイルを生成するために使用する意味的類似性を計算する。
我々の結果は、人間における初期の研究と、永続性(意味空間の深部探索)と柔軟性(複数の意味空間を横断する広部探索)の両方を創造性に反映している。
人口としてのLSMは人間のプロファイルと一致するが、創造性との関係は異なる。
論文 参考訳(メタデータ) (2024-05-01T23:06:46Z) - Multi-modal Instruction Tuned LLMs with Fine-grained Visual Perception [63.03288425612792]
マルチモーダル参照から画素単位のオブジェクト認識と自然言語記述を生成できる汎用MLLMモデルであるbfAnyRefを提案する。
本モデルでは,領域レベルの参照表現生成とセグメンテーションの多様さを含む,複数のベンチマークにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-03-05T13:45:46Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。