論文の概要: CREFT: Sequential Multi-Agent LLM for Character Relation Extraction
- arxiv url: http://arxiv.org/abs/2505.24553v1
- Date: Fri, 30 May 2025 13:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.958587
- Title: CREFT: Sequential Multi-Agent LLM for Character Relation Extraction
- Title(参考訳): CREFT:文字関係抽出のための逐次マルチエージェントLLM
- Authors: Ye Eun Chun, Taeyoon Hwang, Seung-won Hwang, Byung-Hak Kim,
- Abstract要約: CREFTは知識蒸留を通じて基本文字グラフを構築し、その後、文字合成、関係抽出、役割識別、グループ割り当てを反復的に洗練する。
韓国のドラマデータセットをキュレートした実験では、CREFTは精度と完全性の両方でシングルエージェントLLMベースラインを著しく上回っている。
- 参考スコア(独自算出の注目度): 17.568992245453224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding complex character relations is crucial for narrative analysis and efficient script evaluation, yet existing extraction methods often fail to handle long-form narratives with nuanced interactions. To address this challenge, we present CREFT, a novel sequential framework leveraging specialized Large Language Model (LLM) agents. First, CREFT builds a base character graph through knowledge distillation, then iteratively refines character composition, relation extraction, role identification, and group assignments. Experiments on a curated Korean drama dataset demonstrate that CREFT significantly outperforms single-agent LLM baselines in both accuracy and completeness. By systematically visualizing character networks, CREFT streamlines narrative comprehension and accelerates script review -- offering substantial benefits to the entertainment, publishing, and educational sectors.
- Abstract(参考訳): 複雑な文字関係を理解することは、物語の分析と効率的なスクリプト評価に不可欠であるが、既存の抽出法は、しばしば、ニュアンス付き相互作用を伴う長文の物語を扱うのに失敗する。
この課題に対処するために、特殊なLarge Language Model (LLM) エージェントを利用した新しいシーケンシャルフレームワークCREFTを提案する。
まず、CREFTは知識蒸留を通して基本文字グラフを構築し、その後、文字合成、関係抽出、役割識別、グループ割り当てを反復的に洗練する。
韓国のドラマデータセットをキュレートした実験では、CREFTは精度と完全性の両方でシングルエージェントLLMベースラインを著しく上回っている。
キャラクターネットワークを体系的に視覚化することで、CREFTは物語の理解を簡素化し、脚本レビューを加速する。
関連論文リスト
- CML-Bench: A Framework for Evaluating and Enhancing LLM-Powered Movie Scripts Generation [66.24195604846103]
対話コヒーレンス(DC)、キャラクタ一貫性(CC)、Plot Reasonableness(PR)にまたがる定量的メトリクスを特徴とするCML-Benchを提案する。
CML-Benchは、熟練した人書きのスクリプトに効果的に高いスコアを割り当てる。
ベンチマークをさらに検証するために,文字対話とイベントロジックに関する詳細な指示を取り入れたプロンプト戦略であるCML-Instructionを導入する。
論文 参考訳(メタデータ) (2025-10-01T08:03:26Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Joint Enhancement of Relational Reasoning for Long-Context LLMs [39.679627202160425]
大規模言語モデル(LLM)は、メモリ制限と、複雑で長いコンテキストのタスクに対処できないため、長いコンテキストに苦しむ。
グラフベースの推論による長文理解を強化するための新しいフレームワークである textbfJERR を提案する。
論文 参考訳(メタデータ) (2025-08-28T01:54:47Z) - RMTBench: Benchmarking LLMs Through Multi-Turn User-Centric Role-Playing [111.06936588273868]
RMTBenchは、80の多様な文字と8000以上の対話ラウンドを特徴とする、総合的なテキストバプサー中心のバイリンガルロールプレイングベンチマークである。
本ベンチマークでは,文字記述よりも明示的なユーザモチベーションに基づく対話を構築し,実用的なユーザアプリケーションとの整合性を確保する。
RMTBenchは、キャラクタバックグラウンドからユーザ意図のフルフィルメントにフォーカスを移すことで、学術的な評価と実践的なデプロイメント要件のギャップを埋める。
論文 参考訳(メタデータ) (2025-07-27T16:49:47Z) - Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [80.88654868264645]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - NexusSum: Hierarchical LLM Agents for Long-Form Narrative Summarization [0.0]
物語要約のための多エージェントLLMフレームワークであるNexusSumを紹介する。
物語固有の事前処理方法は、文字対話と記述テキストを統一されたフォーマットに標準化する。
本手法は物語要約における新たな最先端技術を確立し,書籍,映画,テレビ脚本間でBERTScore(F1)を最大30.0%向上させる。
論文 参考訳(メタデータ) (2025-05-30T13:26:23Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - Beyond LLMs: A Linguistic Approach to Causal Graph Generation from Narrative Texts [5.309459419455988]
本稿では,物語テキストから因果グラフを生成するための新しいフレームワークを提案する。
本研究では,STAC分類モデルに統合された7つの言語的特徴からなる「エクササイズ指標」を提案する。
GPT-4o と Claude 3.5 を因果グラフの品質で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-04-10T05:09:07Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Agents' Room: Narrative Generation through Multi-step Collaboration [54.98886593802834]
本稿では,物語の執筆を特殊エージェントが取り組んだサブタスクに分解する,物語理論に触発された世代フレームワークを提案する。
エージェントの部屋は,専門的評価者が好むストーリーをベースラインシステムより生成することを示す。
論文 参考訳(メタデータ) (2024-10-03T15:44:42Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - Large Language Models Fall Short: Understanding Complex Relationships in
Detective Narratives [21.297972871264744]
我々は,刑事談話から複雑な文字関係グラフを抽出し,解析するための新しいベンチマークであるConanを導入する。
具体的には、階層的な関係カテゴリを設計し、様々なキャラクターの視点から手動で役割指向関係を抽出し、注釈付けした。
GPT-3.5やGPT-4、Llama2といった先進言語モデル(LLM)を用いた実験は、複雑な関係を推論し、より長い物語を扱う際の限界を明らかにします。
論文 参考訳(メタデータ) (2024-02-16T19:59:45Z) - Recurrent Alignment with Hard Attention for Hierarchical Text Rating [6.858867989434858]
大規模言語モデル(LLM)を利用した階層型テキスト評価のための新しいフレームワークを提案する。
我々のフレームワークは、RAHA(Recurrent Alignment with Hard Attention)を取り入れています。
実験の結果,RAHAは3つの階層的テキスト評価データセットにおいて,既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-14T00:40:51Z) - Screenplay Summarization Using Latent Narrative Structure [78.45316339164133]
本稿では,物語の基盤となる構造を一般教師なし・教師付き抽出要約モデルに明示的に組み込むことを提案する。
重要な物語イベント(転回点)の観点で物語構造を定式化し、脚本を要約するために潜伏状態として扱う。
シーンレベルの要約ラベルを付加したテレビ画面のCSIコーパスの実験結果から,潜角点がCSIエピソードの重要な側面と相関していることが判明した。
論文 参考訳(メタデータ) (2020-04-27T11:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。