論文の概要: An Annotated Reading of 'The Singer of Tales' in the LLM Era
- arxiv url: http://arxiv.org/abs/2502.05148v1
- Date: Fri, 07 Feb 2025 18:26:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:58:49.359819
- Title: An Annotated Reading of 'The Singer of Tales' in the LLM Era
- Title(参考訳): LLM時代の「物語の歌」の注釈
- Authors: Kush R. Varshney,
- Abstract要約: パーリー・ロード・オーラル・フォーミュラ理論(Parry-Lord Oral-formulaic theory)は、口頭物語の詩がどのように学習され、構成され、照らされたバードによって伝達されるかを理解する画期的な理論である。
我々は,大言語モデル (LLM) と生成人工知能 (AI) のレンズから,この理論の基礎となるメカニズムの注釈付き読解を行う。
- 参考スコア(独自算出の注目度): 22.21928139733195
- License:
- Abstract: The Parry-Lord oral-formulaic theory was a breakthrough in understanding how oral narrative poetry is learned, composed, and transmitted by illiterate bards. In this paper, we provide an annotated reading of the mechanism underlying this theory from the lens of large language models (LLMs) and generative artificial intelligence (AI). We point out the the similarities and differences between oral composition and LLM generation, and comment on the implications to society and AI policy.
- Abstract(参考訳): パーリー・ロード・オーラル・フォーミュラ理論(Parry-Lord Oral-formulaic theory)は、口頭物語の詩がどのように学習され、構成され、照らされたバードによって伝達されるかを理解する画期的な理論である。
本稿では,大言語モデル(LLM)と生成人工知能(AI)のレンズから,この理論の基盤となるメカニズムを注釈で読み取る。
口腔構成とLLM生成の類似点と相違点を指摘するとともに,社会やAI政策への影響についてコメントする。
関連論文リスト
- Do Large Language Models Defend Inferentialist Semantics?: On the Logical Expressivism and Anti-Representationalism of LLMs [0.0]
本稿では,大規模言語モデル(LLM)の特徴が,言語哲学における主流の仮定に挑戦していることを論じる。
本研究は,LLMの特性と振舞いの解釈において,推論的意味論の反表現主義と論理的表現主義,および準合成性が有用であることを示す。
論文 参考訳(メタデータ) (2024-12-19T03:48:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Language Models as Semiotic Machines: Reconceptualizing AI Language Systems through Structuralist and Post-Structuralist Theories of Language [0.0]
本稿では,大規模言語モデル(LLM)を理解するための新しいフレームワークを提案する。
LLMは言語自体のモデルとして理解されるべきであり、ジャックの「書き方」(l'ecriture)の概念と一致している、と私は主張する。
私は、Sausure の Saussure 批判を LLM でモデル化されたオブジェクトとして位置づけ、機械の 'mind' を統計的近似として提供します。
論文 参考訳(メタデータ) (2024-10-16T21:45:54Z) - A Perspective on Literary Metaphor in the Context of Generative AI [0.6445605125467572]
本研究は,文芸メタファーの役割と,その能力について考察する。
原語の含意が文質を向上させるかどうかを検討するため,アフリカーンスでLSTMに基づく言語モデルを訓練した。
本論文は,美的価値,解釈,評価に関する思考的疑問を提起する。
論文 参考訳(メタデータ) (2024-09-02T08:27:29Z) - Understanding Literary Texts by LLMs: A Case Study of Ancient Chinese Poetry [9.970908656435066]
詩、ジョーク、短編小説などのジャンルにおいて、多くのAIツールが登場し、新たな視点を提供する。
文学作品を評価することは、しばしば複雑で、完全に定量化することは困難であり、AI創造のさらなる発展を妨げている。
本稿では,大規模言語モデルの観点から,文学テキストのミステリーを探究する。
論文 参考訳(メタデータ) (2024-08-22T04:25:06Z) - Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Towards ASR Robust Spoken Language Understanding Through In-Context
Learning With Word Confusion Networks [68.79880423713597]
本稿では,トップ仮説のみに頼るのではなく,ASRシステムの格子出力を利用する手法を提案する。
音声質問応答と意図分類を網羅した文脈内学習実験により,LLMの音声書き起こしに対する弾力性について明らかにした。
論文 参考訳(メタデータ) (2024-01-05T17:58:10Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Neural Authorship Attribution: Stylometric Analysis on Large Language
Models [16.63955074133222]
GPT-4、PaLM、Llamaのような大規模言語モデル(LLM)は、AIによるテキスト生成を著しく推進している。
誤用の可能性に対する懸念が高まっているため、AI生成テキストの鑑識の必要性が高まっている。
論文 参考訳(メタデータ) (2023-08-14T17:46:52Z) - BACON: Deep-Learning Powered AI for Poetry Generation with Author
Linguistic Style Transfer [91.3755431537592]
本稿では,BACONについて述べる。BACONは,著者の言語スタイルを伝達する自動詩生成器のプロトタイプである。
有限状態機械、確率モデル、人工ニューラルネットワーク、深層学習の概念と技法を組み合わせて、任意の著者のスタイルで豊かな美的品質でオリジナルの詩を書く。
論文 参考訳(メタデータ) (2021-12-14T00:08:36Z) - Metaphor Generation with Conceptual Mappings [58.61307123799594]
我々は、関連する動詞を置き換えることで、リテラル表現を与えられた比喩文を生成することを目指している。
本稿では,認知領域間の概念マッピングを符号化することで生成過程を制御することを提案する。
教師なしCM-Lexモデルは,近年のディープラーニングメタファ生成システムと競合することを示す。
論文 参考訳(メタデータ) (2021-06-02T15:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。