論文の概要: CREFT: Sequential Multi-Agent LLM for Character Relation Extraction
- arxiv url: http://arxiv.org/abs/2505.24553v1
- Date: Fri, 30 May 2025 13:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.958587
- Title: CREFT: Sequential Multi-Agent LLM for Character Relation Extraction
- Title(参考訳): CREFT:文字関係抽出のための逐次マルチエージェントLLM
- Authors: Ye Eun Chun, Taeyoon Hwang, Seung-won Hwang, Byung-Hak Kim,
- Abstract要約: CREFTは知識蒸留を通じて基本文字グラフを構築し、その後、文字合成、関係抽出、役割識別、グループ割り当てを反復的に洗練する。
韓国のドラマデータセットをキュレートした実験では、CREFTは精度と完全性の両方でシングルエージェントLLMベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 17.568992245453224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding complex character relations is crucial for narrative analysis and efficient script evaluation, yet existing extraction methods often fail to handle long-form narratives with nuanced interactions. To address this challenge, we present CREFT, a novel sequential framework leveraging specialized Large Language Model (LLM) agents. First, CREFT builds a base character graph through knowledge distillation, then iteratively refines character composition, relation extraction, role identification, and group assignments. Experiments on a curated Korean drama dataset demonstrate that CREFT significantly outperforms single-agent LLM baselines in both accuracy and completeness. By systematically visualizing character networks, CREFT streamlines narrative comprehension and accelerates script review -- offering substantial benefits to the entertainment, publishing, and educational sectors.
- Abstract(参考訳): 複雑な文字関係を理解することは、物語の分析と効率的なスクリプト評価に不可欠であるが、既存の抽出法は、しばしば、ニュアンス付き相互作用を伴う長文の物語を扱うのに失敗する。
この課題に対処するために、特殊なLarge Language Model (LLM) エージェントを利用した新しいシーケンシャルフレームワークCREFTを提案する。
まず、CREFTは知識蒸留を通して基本文字グラフを構築し、その後、文字合成、関係抽出、役割識別、グループ割り当てを反復的に洗練する。
韓国のドラマデータセットをキュレートした実験では、CREFTは精度と完全性の両方でシングルエージェントLLMベースラインを著しく上回っている。
キャラクターネットワークを体系的に視覚化することで、CREFTは物語の理解を簡素化し、脚本レビューを加速する。
関連論文リスト
- NexusSum: Hierarchical LLM Agents for Long-Form Narrative Summarization [0.0]
物語要約のための多エージェントLLMフレームワークであるNexusSumを紹介する。
物語固有の事前処理方法は、文字対話と記述テキストを統一されたフォーマットに標準化する。
本手法は物語要約における新たな最先端技術を確立し,書籍,映画,テレビ脚本間でBERTScore(F1)を最大30.0%向上させる。
論文 参考訳(メタデータ) (2025-05-30T13:26:23Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - Beyond LLMs: A Linguistic Approach to Causal Graph Generation from Narrative Texts [5.309459419455988]
本稿では,物語テキストから因果グラフを生成するための新しいフレームワークを提案する。
本研究では,STAC分類モデルに統合された7つの言語的特徴からなる「エクササイズ指標」を提案する。
GPT-4o と Claude 3.5 を因果グラフの品質で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-04-10T05:09:07Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Large Language Models Fall Short: Understanding Complex Relationships in
Detective Narratives [21.297972871264744]
我々は,刑事談話から複雑な文字関係グラフを抽出し,解析するための新しいベンチマークであるConanを導入する。
具体的には、階層的な関係カテゴリを設計し、様々なキャラクターの視点から手動で役割指向関係を抽出し、注釈付けした。
GPT-3.5やGPT-4、Llama2といった先進言語モデル(LLM)を用いた実験は、複雑な関係を推論し、より長い物語を扱う際の限界を明らかにします。
論文 参考訳(メタデータ) (2024-02-16T19:59:45Z) - Recurrent Alignment with Hard Attention for Hierarchical Text Rating [6.858867989434858]
大規模言語モデル(LLM)を利用した階層型テキスト評価のための新しいフレームワークを提案する。
我々のフレームワークは、RAHA(Recurrent Alignment with Hard Attention)を取り入れています。
実験の結果,RAHAは3つの階層的テキスト評価データセットにおいて,既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-14T00:40:51Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。