論文の概要: LLM_annotate: A Python package for annotating and analyzing fiction characters
- arxiv url: http://arxiv.org/abs/2601.03274v1
- Date: Wed, 24 Dec 2025 12:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.591314
- Title: LLM_annotate: A Python package for annotating and analyzing fiction characters
- Title(参考訳): LLM_annotate: フィクションキャラクタの注釈付けと解析のためのPythonパッケージ
- Authors: Hannes Rosenbusch,
- Abstract要約: LLM_annotateは、フィクションキャラクターの性格を分析するためのPythonパッケージである。
フルテキストで文字の振る舞いをアノテートするための計算を標準化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM_annotate is a Python package for analyzing the personality of fiction characters with large language models. It standardizes workflows for annotating character behaviors in full texts (e.g., books and movie scripts), inferring character traits, and validating annotation/inference quality via a human-in-the-loop GUI. The package includes functions for text chunking, LLM-based annotation, character name disambiguation, quality scoring, and computation of character-level statistics and embeddings. Researchers can use any LLM, commercial, open-source, or custom, within LLM_annotate. Through tutorial examples using The Simpsons Movie and the novel Pride and Prejudice, I demonstrate the usage of the package for efficient and reproducible character analyses.
- Abstract(参考訳): LLM_annotateは、大きな言語モデルでフィクションキャラクターの性格を分析するためのPythonパッケージである。
フルテキスト(書籍や映画のスクリプトなど)で文字の振る舞いを注釈付けするためのワークフローを標準化し、文字の特徴を推測し、ヒューマン・イン・ザ・ループGUIを通じてアノテーション/推論品質を検証する。
このパッケージにはテキストチャンキング、LLMベースのアノテーション、文字名の曖昧さ、品質スコアリング、文字レベルの統計と埋め込みの計算機能が含まれている。
研究者は LLM_annotate 内で LLM, 商用, オープンソース, あるいはカスタムを使用することができる。
The Simpsons Movie と小説 Pride and Prejudice を用いたチュートリアルの例を通して,このパッケージを効率よく再現可能なキャラクタ分析に活用することを実演する。
関連論文リスト
- Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Zero-Shot Statistical Tests for LLM-Generated Text Detection using Finite Sample Concentration Inequalities [13.657259851747126]
コンテンツの証明は、教育機関、ソーシャルメディアプラットフォーム、企業など、多くの組織の機能に不可欠である。
LLM(Large Language Models)が生成するテキストが、人間が生成したコンテンツとほとんど区別できないようになるにつれて、この問題はますます難しくなってきている。
本稿では,あるテキストが与えられた場合,特定の LLM が生成したかどうかを特定できるのか,という問いに答える。
LLM生成したテキストは、歴史に完全に依存したシーケンシャルなプロセスとしてモデル化し、ゼロショット統計テストを設計し、2つの異なるLCM集合によって生成されたテキストを区別する。
論文 参考訳(メタデータ) (2025-01-04T23:51:43Z) - Show, Don't Tell: Uncovering Implicit Character Portrayal using LLMs [19.829683714192615]
LIIPA(LIIPA)は,大きな言語モデルに暗黙的文字の描写を明らかにするためのフレームワークである。
LIIPAは既存の手法よりも優れており,文字数の増加に対してより堅牢であることがわかった。
我々の研究は、複雑な文字を解析するためにLLMを使うことの潜在的な利点を実証している。
論文 参考訳(メタデータ) (2024-12-05T19:46:53Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - CUTE: Measuring LLMs' Understanding of Their Tokens [54.70665106141121]
大きな言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示す。
LLMはどの程度の間、正書法情報を学ぶことができるのか?
LLMの正書法知識をテストするために設計されたタスクの集合を特徴とする新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2024-09-23T18:27:03Z) - Exploring the Role of Transliteration in In-Context Learning for Low-resource Languages Written in Non-Latin Scripts [50.40191599304911]
非ラテン文字で書かれた低リソース言語に対するLLMの性能向上にも効果があるか検討する。
本稿では,(1) の原文,(2) ラテン文字,(3) の両文を対象とする3つのプロンプトテンプレートを提案する。
本研究の結果から,翻訳の有効性はタスクタイプやモデルサイズによって異なることが明らかとなった。
論文 参考訳(メタデータ) (2024-07-02T14:51:20Z) - CHIRON: Rich Character Representations in Long-Form Narratives [98.273323001781]
文字のテキスト情報を整理・フィルタリングする新しい文字シートの表現であるCHIRONを提案する。
実験の結果,CHIRONは類似の要約に基づくベースラインよりも優れ,柔軟であることが判明した。
CHIRONから派生したメトリクスは、ストーリーのキャラクター中心性を自動的に推測するために使用することができ、これらのメトリクスは人間の判断と一致している。
論文 参考訳(メタデータ) (2024-06-14T17:23:57Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - Evaluating Character Understanding of Large Language Models via Character Profiling from Fictional Works [33.817319226631426]
大規模言語モデル(LLM)は印象的なパフォーマンスを示し、多くのAIアプリケーションに拍車をかけた。
これらのRPAの前提条件は、LLMが架空の作品からキャラクターを理解する能力にある。
これまでの努力は、基本的な分類タスクや特徴的模倣を通じて、この機能を評価してきた。
論文 参考訳(メタデータ) (2024-04-19T09:10:29Z) - TextDescriptives: A Python package for calculating a large variety of
metrics from text [3.437656066916039]
TextDescriptivesは、テキストからさまざまなメトリクスを計算するためのPythonパッケージである。
臨床テキストの言語的安定性の分析、神経精神医学的状態の予測、小学生の言語的目標の分析にはすでに使われている。
論文 参考訳(メタデータ) (2023-01-05T13:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。