論文の概要: Classifying Unreliable Narrators with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.10231v1
- Date: Wed, 11 Jun 2025 23:17:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.488325
- Title: Classifying Unreliable Narrators with Large Language Models
- Title(参考訳): 大規模言語モデルによる信頼できないナレーターの分類
- Authors: Anneliese Brei, Katharine Henry, Abhisheik Sharma, Shashank Srivastava, Snigdha Chaturvedi,
- Abstract要約: 本稿では,複数のドメインからのナラティブを人間に注釈付けしたデータセットTUNaを提案する。
ナレーション内,ナレーション間,テキスト間不確実性の分類タスクを定義する。
実世界のテキストデータに基づいて,信頼できないナレーター分類を行うために,文献からの学習を提案する。
- 参考スコア(独自算出の注目度): 23.817691955577835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Often when we interact with a first-person account of events, we consider whether or not the narrator, the primary speaker of the text, is reliable. In this paper, we propose using computational methods to identify unreliable narrators, i.e. those who unintentionally misrepresent information. Borrowing literary theory from narratology to define different types of unreliable narrators based on a variety of textual phenomena, we present TUNa, a human-annotated dataset of narratives from multiple domains, including blog posts, subreddit posts, hotel reviews, and works of literature. We define classification tasks for intra-narrational, inter-narrational, and inter-textual unreliabilities and analyze the performance of popular open-weight and proprietary LLMs for each. We propose learning from literature to perform unreliable narrator classification on real-world text data. To this end, we experiment with few-shot, fine-tuning, and curriculum learning settings. Our results show that this task is very challenging, and there is potential for using LLMs to identify unreliable narrators. We release our expert-annotated dataset and code and invite future research in this area.
- Abstract(参考訳): イベントの1対1のアカウントと対話する場合、テキストの主話者であるナレーターが信頼できるかどうかを考えることが多い。
本稿では,信頼できないナレーター,すなわち意図しない情報を誤って表現する者を識別するための計算手法を提案する。
ナラトロジーから文学理論を借用して,さまざまなテキスト現象に基づいて,信頼できないナレーターのさまざまなタイプを定義し,ブログ投稿,サブレディット投稿,ホテルレビュー,文学作品など,複数の分野の物語を人間に注釈したデータセットであるTUNaを提示する。
ナレーション内, ナレーション間, テキスト間不信頼の分類タスクを定義し, それぞれに人気のオープンウェイト, プロプライエタリなLCMの性能を解析する。
実世界のテキストデータに基づいて,信頼できないナレーター分類を行うために,文献からの学習を提案する。
この目的のために、数ショット、微調整、カリキュラム学習の設定を実験する。
以上の結果から,この課題は非常に困難な課題であり,信頼性の低いナレーターをLLMで識別できる可能性が示唆された。
専門家がアノテートしたデータセットとコードをリリースし、この分野の今後の研究を招待します。
関連論文リスト
- Show, Don't Tell: Uncovering Implicit Character Portrayal using LLMs [19.829683714192615]
LIIPA(LIIPA)は,大きな言語モデルに暗黙的文字の描写を明らかにするためのフレームワークである。
LIIPAは既存の手法よりも優れており,文字数の増加に対してより堅牢であることがわかった。
我々の研究は、複雑な文字を解析するためにLLMを使うことの潜在的な利点を実証している。
論文 参考訳(メタデータ) (2024-12-05T19:46:53Z) - BookWorm: A Dataset for Character Description and Analysis [59.186325346763184]
本稿では,短い事実プロファイルを生成する文字記述と,詳細な解釈を提供する文字解析という2つのタスクを定義する。
本稿では,Gutenbergプロジェクトからの書籍と,人間による記述と分析のペアリングを行うBookWormデータセットを紹介する。
その結果,検索に基づくアプローチは両タスクにおいて階層的アプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-10-14T10:55:58Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Improving Quotation Attribution with Fictional Character Embeddings [11.259583037191772]
本稿では,文字のグローバルなスタイリスティックな情報をエンコードする文字埋め込みにより,人気のある引用帰属システムであるBookNLPを提案する。
提案するグローバル文字埋め込みとBookNLPの文脈情報を組み合わせることで,アナフォリックおよび暗黙的引用のための話者識別が向上することを示す。
論文 参考訳(メタデータ) (2024-06-17T09:46:35Z) - Detecting Narrative Elements in Informational Text [0.0]
NEAT(Narrative Elements AnnoTation)は,原文中の物語要素を検出する新しいNLPタスクである。
各種分野の46のニュース記事から収集した2,209文の新しいデータセットを注釈付けするために,本手法を用いる。
我々は、注釈付きデータセット上で複数の異なる設定で教師付きモデルを訓練し、異なる物語要素を識別し、平均F1スコアを最大0.77まで達成した。
論文 参考訳(メタデータ) (2022-10-06T16:23:33Z) - NECE: Narrative Event Chain Extraction Toolkit [64.89332212585404]
NECEはオープンアクセス型文書レベルのツールキットで,その発生の時間順に物語のイベントを自動的に抽出・アライメントする。
NECEツールキットの高品質さを示し、性別に関するナラティブバイアスを分析するために、その下流の応用を実証する。
また、現状のアプローチの欠点と、今後の研究で生成モデルを活用する可能性についてもオープンに論じる。
論文 参考訳(メタデータ) (2022-08-17T04:30:58Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Exploring aspects of similarity between spoken personal narratives by
disentangling them into narrative clause types [13.350982138577038]
本稿では,594本の映像から10,296の物語節を含む実世界の音声物語のコーパスを紹介する。
第2に,非ナラティブな専門家に,ラボフの社会言語的個人的物語モデルの下で,これらの節に注釈を付けるよう依頼する。
第3に、最上位の節に対して84.7%のFスコアに達する分類器を訓練する。
我々のアプローチは、個人の物語を研究または表現することを目的とした機械学習の手法を情報提供することを目的としている。
論文 参考訳(メタデータ) (2020-05-26T14:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。