論文の概要: Tell, Don't Show: Leveraging Language Models' Abstractive Retellings to Model Literary Themes
- arxiv url: http://arxiv.org/abs/2505.23166v1
- Date: Thu, 29 May 2025 06:59:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.723372
- Title: Tell, Don't Show: Leveraging Language Models' Abstractive Retellings to Model Literary Themes
- Title(参考訳): Tell, Don't Show: 言語モデルの抽象リテリングをモデルリテラリーテーマに活用する
- Authors: Li Lucy, Camilla Griffiths, Sarah Levine, Jennifer L. Eberhardt, Dorottya Demszky, David Bamman,
- Abstract要約: 本稿では,文学のためのシンプルなトピックモデリング手法であるRetellを提案する。
我々は,資源効率のよい生成言語モデル(LM)に,どのパスを示すかを示すよう促す。
- 参考スコア(独自算出の注目度): 9.471374217162843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional bag-of-words approaches for topic modeling, like latent Dirichlet allocation (LDA), struggle with literary text. Literature challenges lexical methods because narrative language focuses on immersive sensory details instead of abstractive description or exposition: writers are advised to "show, don't tell." We propose Retell, a simple, accessible topic modeling approach for literature. Here, we prompt resource-efficient, generative language models (LMs) to tell what passages show, thereby translating narratives' surface forms into higher-level concepts and themes. By running LDA on LMs' retellings of passages, we can obtain more precise and informative topics than by running LDA alone or by directly asking LMs to list topics. To investigate the potential of our method for cultural analytics, we compare our method's outputs to expert-guided annotations in a case study on racial/cultural identity in high school English language arts books.
- Abstract(参考訳): ラテント・ディリクレ・アロケーション(LDA)のようなトピック・モデリングのための従来の単語のバッグ・オブ・ワード・アプローチは、文学的テキストと競合する。
文学は、物語言語が抽象的な記述や表現ではなく没入的な感覚の詳細に焦点を当てているため、語彙的手法に挑戦する。
本稿では,文学のためのシンプルなトピックモデリング手法であるRetellを提案する。
そこで我々は,資源効率のよい生成言語モデル (LM) を用いて,どの経路を示すのかを判断し,物語の表面形状を高レベルな概念やテーマに変換する。
LMのリテリングでLDAを実行することで、LDAを単独で実行する場合や、LMに直接トピックをリストアップするよう求めている場合よりも、より正確で情報的なトピックを得ることができる。
本手法の文化的分析の可能性を検討するため,高校英語書における人種的・文化的アイデンティティを事例として,専門家が指導したアノテーションと比較した。
関連論文リスト
- Looking for the Inner Music: Probing LLMs' Understanding of Literary Style [3.5757761767474876]
作者のスタイルはジャンルのスタイルよりも定義しやすい。
代名詞の用法と語順は、両方の文学的スタイルを定義する上で重要である。
論文 参考訳(メタデータ) (2025-02-05T22:20:17Z) - Chain-of-MetaWriting: Linguistic and Textual Analysis of How Small Language Models Write Young Students Texts [0.8192907805418583]
本稿では,多言語小言語モデル(SLM)の詳細な言語的およびテキスト的分析について紹介する。
主に、小学生と大学生のフランス語による短編とエッセイの執筆に焦点をあてた。
論文 参考訳(メタデータ) (2024-12-19T15:58:53Z) - Explingo: Explaining AI Predictions using Large Language Models [47.21393184176602]
LLM(Large Language Models)は、説明を自然なコミュニケーションと整合する人間可読な物語形式に変換することができる。
ナレーターはMLの説明を取り入れ、それらを自然言語の説明に変換する。
グレーダーはこれらの物語を、正確性、完全性、流用性、簡潔さを含む一連の指標で評価する。
この研究の結果はオープンソースツールに統合され、さらなるアプリケーションで物語の説明が利用できるようになった。
論文 参考訳(メタデータ) (2024-12-06T16:01:30Z) - Narrative Analysis of True Crime Podcasts With Knowledge Graph-Augmented Large Language Models [8.78598447041169]
大きな言語モデル(LLM)は、複雑な物語の弧や矛盾する情報を含む物語といまだに苦労している。
最近の研究は、外部知識ベースで強化されたLLMが、結果の精度と解釈可能性を向上させることを示唆している。
本研究では,実際のポッドキャストデータの理解における知識グラフ(KG)の適用性について検討する。
論文 参考訳(メタデータ) (2024-11-01T21:49:00Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - LFED: A Literary Fiction Evaluation Dataset for Large Language Models [58.85989777743013]
元々は中国語で書かれたか、中国語に翻訳された95の文学小説を収集し、数世紀にわたって幅広い話題を扱っている。
質問分類を8つのカテゴリーで定義し,1,304の質問の作成を導く。
我々は、小説の特定の属性(小説の種類、文字番号、出版年など)がLLMのパフォーマンスに与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2024-05-16T15:02:24Z) - Large Language Models Offer an Alternative to the Traditional Approach of Topic Modelling [0.9095496510579351]
広範テキストコーパス内の話題を明らかにする代替手段として,大規模言語モデル (LLM) の未解決の可能性について検討する。
本研究は, 適切なプロンプトを持つLCMが, トピックのタイトルを生成でき, トピックを洗練, マージするためのガイドラインに固執する上で, 有効な代替手段として目立たせることを示唆している。
論文 参考訳(メタデータ) (2024-03-24T17:39:51Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。