論文の概要: Analyzing Nobel Prize Literature with Large Language Models
- arxiv url: http://arxiv.org/abs/2410.18142v1
- Date: Tue, 22 Oct 2024 13:03:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 16:44:31.701686
- Title: Analyzing Nobel Prize Literature with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたノーベル文学研究
- Authors: Yang Zhenyuan, Liu Zhengliang, Zhang Jing, Lu Cen, Tai Jiaxin, Zhong Tianyang, Li Yiwei, Zhao Siyan, Yao Teng, Liu Qing, Yang Jinlin, Liu Qixin, Li Zhaowei, Wang Kexin, Ma Longjun, Zhu Dajiang, Ren Yudan, Ge Bao, Zhang Wei, Qiang Ning, Zhang Tuo, Liu Tianming,
- Abstract要約: 本研究では,高度言語モデル(LLM),特にo1モデルの文芸分析における能力について検討する。
ハン・カンの「9章」、2024年の受賞者ジョン・フォッセの「友情」、2023年の受賞者ジョン・フォッセの2つのノーベル文学賞を受賞した短編小説に焦点を当て、AIが複雑な文学的要素と関わり得る程度について調査した。
- 参考スコア(独自算出の注目度): 10.058237897358078
- License:
- Abstract: This study examines the capabilities of advanced Large Language Models (LLMs), particularly the o1 model, in the context of literary analysis. The outputs of these models are compared directly to those produced by graduate-level human participants. By focusing on two Nobel Prize-winning short stories, 'Nine Chapters' by Han Kang, the 2024 laureate, and 'Friendship' by Jon Fosse, the 2023 laureate, the research explores the extent to which AI can engage with complex literary elements such as thematic analysis, intertextuality, cultural and historical contexts, linguistic and structural innovations, and character development. Given the Nobel Prize's prestige and its emphasis on cultural, historical, and linguistic richness, applying LLMs to these works provides a deeper understanding of both human and AI approaches to interpretation. The study uses qualitative and quantitative evaluations of coherence, creativity, and fidelity to the text, revealing the strengths and limitations of AI in tasks typically reserved for human expertise. While LLMs demonstrate strong analytical capabilities, particularly in structured tasks, they often fall short in emotional nuance and coherence, areas where human interpretation excels. This research underscores the potential for human-AI collaboration in the humanities, opening new opportunities in literary studies and beyond.
- Abstract(参考訳): 本研究では,高度言語モデル(LLM),特にo1モデルの文芸分析における能力について検討する。
これらのモデルの出力は、大学院レベルの人間の参加者が生成したものと直接比較される。
ノーベル文学賞を受賞したハン・カンの短編小説「9章」、2024年のラウレテートの「友情」、2023年のラウレテートのジョン・フォッセの「友情」に焦点を当て、この研究はAIが神学的分析、テクスチュアリティ、文化的・歴史的文脈、言語的・構造的革新、文字発達といった複雑な文学的要素にどの程度関与できるかを探求している。
ノーベル賞の権威と文化的、歴史的、言語的な豊かさに重点を置くことを考えると、これらの作品にLLMを適用することは、人間とAIの両方の解釈アプローチをより深く理解している。
この研究はテキストにコヒーレンス、創造性、忠実さの質的および定量的評価を使用し、典型的には人間の専門性のために確保されるタスクにおけるAIの強みと限界を明らかにする。
LLMは、特に構造化されたタスクにおいて強力な分析能力を示すが、人間の解釈が優れている領域である感情的なニュアンスやコヒーレンスに欠けることが多い。
本研究は人文科学における人間とAIの連携の可能性を強調し,文学研究等の新たな機会を開くものである。
関連論文リスト
- AI as Humanity's Salieri: Quantifying Linguistic Creativity of Language Models via Systematic Attribution of Machine Text against Web Text [53.15652021126663]
本稿では、テキストの言語的創造性を定量化する第一歩として、CREATIVITY INDEXを提案する。
CREATIVITY INDEXを効率的に計算するために,新しい動的プログラミングアルゴリズムであるDJ SEARCHを導入する。
実験の結果、プロの人間作家のCreativity INDEXはLLMよりも平均66.2%高いことが判明した。
論文 参考訳(メタデータ) (2024-10-05T18:55:01Z) - The Nature of NLP: Analyzing Contributions in NLP Papers [77.31665252336157]
我々は,NLP研究を構成するものについて,研究論文から定量的に検討する。
以上の結果から,NLPにおける機械学習の関与は,90年代前半から増加傾向にあることが明らかとなった。
2020年以降、言語と人々への関心が復活した。
論文 参考訳(メタデータ) (2024-09-29T01:29:28Z) - Evaluation of OpenAI o1: Opportunities and Challenges of AGI [112.0812059747033]
o1-previewは目覚ましい能力を示し、しばしば人間レベルまたは優れたパフォーマンスを実現した。
このモデルは、様々な分野にわたる複雑な推論と知識の統合を必要とするタスクに優れていた。
総合的な結果は、人工知能への大きな進歩を示している。
論文 参考訳(メタデータ) (2024-09-27T06:57:00Z) - A Survey on Emergent Language [9.823821010022932]
この論文は、人工知能における創発的言語に関する181の科学論文の包括的なレビューを提供する。
その目的は、この分野に興味のある研究者や熟練した研究者の参考となることである。
論文 参考訳(メタデータ) (2024-09-04T12:22:05Z) - Decoding AI and Human Authorship: Nuances Revealed Through NLP and Statistical Analysis [0.0]
本研究では,AIが生成したテキストと人間が作成したテキストの微妙な相違について検討する。
本研究は,人文・AI生成テキストに固有の言語特性,創造性パターン,潜在的なバイアスについて検討した。
論文 参考訳(メタデータ) (2024-07-15T18:09:03Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Techniques for supercharging academic writing with generative AI [0.0]
このパースペクティブは、生成的人工知能(AI)を用いた学術著作の質と効率を高めるための原則と方法を示す。
我々は、書面におけるAIの関与の根拠(なぜ)、プロセス(方法)、そして自然(何)を明確にする人間とAIの協調フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-10-26T04:35:00Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。