論文の概要: Plug-and-Play Dramaturge: A Divide-and-Conquer Approach for Iterative Narrative Script Refinement via Collaborative LLM Agents
- arxiv url: http://arxiv.org/abs/2510.05188v1
- Date: Mon, 06 Oct 2025 05:20:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.903204
- Title: Plug-and-Play Dramaturge: A Divide-and-Conquer Approach for Iterative Narrative Script Refinement via Collaborative LLM Agents
- Title(参考訳): Plug-and-Play Dramaturge: 協調LDMエージェントによる反復的ナラティブスクリプト再構成のための分法的アプローチ
- Authors: Wenda Xie, Chao Guo, Yanqing Jing. Junle Wang, Yisheng Lv, Fei-Yue Wang,
- Abstract要約: Dramaturge は階層的な複数の LLM エージェントをベースとしたタスク指向の分割・解法である。
全体的なストーリーラインと構造的問題を把握するためのグローバル・レビュー・ステージ、詳細なシーンと文の欠陥をピンポイントするシーンレベルのレビュー・ステージ、脚本全体の構造的および詳細な改善をコーディネートし統合する階層的コーディネート・リビジョン・ステージで構成されている。
我々のアプローチはプラグイン・アンド・プレイであり、既存のメソッドに簡単に統合して生成されたスクリプトを改善することができる。
- 参考スコア(独自算出の注目度): 23.1768597825114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although LLMs have been widely adopted for creative content generation, a single-pass process often struggles to produce high-quality long narratives. How to effectively revise and improve long narrative scripts like scriptwriters remains a significant challenge, as it demands a comprehensive understanding of the entire context to identify global structural issues and local detailed flaws, as well as coordinating revisions at multiple granularities and locations. Direct modifications by LLMs typically introduce inconsistencies between local edits and the overall narrative requirements. To address these issues, we propose Dramaturge, a task and feature oriented divide-and-conquer approach powered by hierarchical multiple LLM agents. It consists of a Global Review stage to grasp the overall storyline and structural issues, a Scene-level Review stage to pinpoint detailed scene and sentence flaws, and a Hierarchical Coordinated Revision stage that coordinates and integrates structural and detailed improvements throughout the script. The top-down task flow ensures that high-level strategies guide local modifications, maintaining contextual consistency. The review and revision workflow follows a coarse-to-fine iterative process, continuing through multiple rounds until no further substantive improvements can be made. Comprehensive experiments show that Dramaturge significantly outperforms all baselines in terms of script-level overall quality and scene-level details. Our approach is plug-and-play and can be easily integrated into existing methods to improve the generated scripts.
- Abstract(参考訳): LLMはクリエイティブなコンテンツ生成に広く採用されているが、シングルパスプロセスは高品質な長編の物語を作るのにしばしば苦労している。
スクリプトライターのような長い物語のスクリプトを効果的に修正し改善する方法は、グローバルな構造上の問題や局所的な詳細な欠陥を特定するために、コンテキスト全体の包括的な理解と、複数の粒度や位置での修正の調整を要求するため、大きな課題である。
LLMによる直接修正は、通常、局所的な編集と全体的な物語的要求の矛盾をもたらす。
これらの問題に対処するために、階層型複数のLLMエージェントをベースとしたタスク指向の分割・解法であるDramaturgeを提案する。
全体的なストーリーラインと構造的問題を把握するためのグローバル・レビュー・ステージ、詳細なシーンと文の欠陥をピンポイントするシーンレベルのレビュー・ステージ、脚本全体の構造的および詳細な改善をコーディネートし統合する階層的コーディネート・リビジョン・ステージで構成されている。
トップダウンのタスクフローは、高レベルの戦略が局所的な変更をガイドし、コンテキスト整合性を維持することを保証する。
レビューとリビジョンのワークフローは、厳密な反復プロセスに従い、さらなる実質的な改善が得られないまで、複数のラウンドを継続する。
総合的な実験により、Dramaturgeはスクリプトレベルの全体的な品質とシーンレベルの詳細という点で、すべてのベースラインを著しく上回っている。
我々のアプローチはプラグイン・アンド・プレイであり、既存のメソッドに簡単に統合して生成されたスクリプトを改善することができる。
関連論文リスト
- LLM-as-classifier: Semi-Supervised, Iterative Framework for Hierarchical Text Classification using Large Language Models [0.0]
大規模言語モデル(LLM)は、構造化されていないテキストデータを解析する前例のない機能を提供している。
標準的な微調整アプローチはリソース集約的であり、実世界のデータ分散の動的な性質にしばしば苦労する。
論文 参考訳(メタデータ) (2025-08-22T15:47:17Z) - ToolACE-MT: Non-Autoregressive Generation for Agentic Multi-Turn Interaction [84.90394416593624]
大規模言語モデル(LLM)によるエージェント的タスク解決には,多ターン・マルチステップインタラクションが必要である。
既存のシミュレーションベースのデータ生成手法は、複数のエージェント間のコストのかかる自己回帰的相互作用に大きく依存している。
本稿では,高品質なマルチターンエージェント対話を構築するための非自己回帰反復生成フレームワークであるToolACE-MTを提案する。
論文 参考訳(メタデータ) (2025-08-18T07:38:23Z) - NexusSum: Hierarchical LLM Agents for Long-Form Narrative Summarization [0.0]
物語要約のための多エージェントLLMフレームワークであるNexusSumを紹介する。
物語固有の事前処理方法は、文字対話と記述テキストを統一されたフォーマットに標準化する。
本手法は物語要約における新たな最先端技術を確立し,書籍,映画,テレビ脚本間でBERTScore(F1)を最大30.0%向上させる。
論文 参考訳(メタデータ) (2025-05-30T13:26:23Z) - Collaborative Temporal Consistency Learning for Point-supervised Natural Language Video Localization [129.43937834515688]
我々は,ビデオ言語アライメントを強化するために,新しいコラボラティブ・テンポラル・コンポジション・ラーニング(COTEL)フレームワークを提案する。
具体的には、まずフレームとセグメントレベルの時間一貫性学習(TCL)モジュールを設計し、フレームサリエンシと文-モーメントペア間のセマンティックアライメントをモデル化する。
論文 参考訳(メタデータ) (2025-03-22T05:04:12Z) - SagaLLM: Context Management, Validation, and Transaction Guarantees for Multi-Agent LLM Planning [2.1331883629523634]
SagaLLMは、現在のLLMベースの計画システムの4つの基本的な制限に対処するために設計された構造化マルチエージェントアーキテクチャである。
Sagaトランザクションパターンを永続メモリ、自動補償、独立バリデーションエージェントに統合することで、このギャップを埋める。
不確実性の下では、一貫性、検証精度、適応調整において大幅な改善が達成される。
論文 参考訳(メタデータ) (2025-03-15T01:43:03Z) - Meta-Chunking: Learning Text Segmentation and Semantic Completion via Logical Perception [10.614437503578856]
本稿では,チャンキング品質を特に向上させるメタチャンキングフレームワークを提案する。
我々は不確実性に基づく2つの適応的チャンキング手法、すなわちPerplexity ChunkingとMargin Sampling Chunkingを設計する。
我々は,2段階の階層的要約生成プロセスと3段階のテキストチャンク書き換え手順を含むグローバル情報補償機構を確立する。
論文 参考訳(メタデータ) (2024-10-16T17:59:32Z) - LLM Blueprint: Enabling Text-to-Image Generation with Complex and
Detailed Prompts [60.54912319612113]
拡散に基づく生成モデルは、テキストと画像の生成が著しく進歩するが、長く複雑なテキストプロンプトを処理する際には困難に直面する。
本稿では,Large Language Models (LLM) を利用してテキストプロンプトから重要なコンポーネントを抽出する手法を提案する。
複数のオブジェクトを特徴とする複雑なプロンプトの評価は,ベースライン拡散モデルと比較して,リコールの大幅な改善を示す。
論文 参考訳(メタデータ) (2023-10-16T17:57:37Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z) - A Local-to-Global Approach to Multi-modal Movie Scene Segmentation [95.34033481442353]
我々は、150本の映画から21Kの注釈付きシーンセグメントを含む大規模なビデオデータセット、MovieScenesを構築した。
本稿では,クリップ,セグメント,映画の3段階にわたるマルチモーダル情報を統合するローカル・グローバルシーンセグメンテーションフレームワークを提案する。
実験の結果,提案するネットワークは,映画を高い精度でシーンに分割し,従来手法より一貫した性能を発揮することがわかった。
論文 参考訳(メタデータ) (2020-04-06T13:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。