論文の概要: Bridging Technology and Humanities: Evaluating the Impact of Large Language Models on Social Sciences Research with DeepSeek-R1
- arxiv url: http://arxiv.org/abs/2503.16304v1
- Date: Thu, 20 Mar 2025 16:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:59.497174
- Title: Bridging Technology and Humanities: Evaluating the Impact of Large Language Models on Social Sciences Research with DeepSeek-R1
- Title(参考訳): ブリッジ技術と人文科学:DeepSeek-R1を用いた社会科学研究における大規模言語モデルの影響評価
- Authors: Peiran Gu, Fuhao Duan, Wenhao Li, Bochen Xu, Ying Cai, Teng Yao, Chenxun Zhuo, Tianming Liu, Bao Ge,
- Abstract要約: 人文科学と社会科学の研究において、LLM(Large Language Models)は大規模テキストデータを解析し、推論することができる。
本稿では, 大規模言語モデルであるDeepSeek-R1を, 低リソース言語翻訳, 教育質問応答, 高等教育における生徒の書き方の改善, 論理的推論, 教育計測と心理測定, 公衆衛生政策分析, 美術教育の7つの側面から分析する。
DeepSeek-R1は人文科学や社会科学でよく働き、ほとんどの質問に正しく論理的に答え、適切な分析プロセスと説明を与える。
- 参考スコア(独自算出の注目度): 21.131239329162295
- License:
- Abstract: In recent years, the development of Large Language Models (LLMs) has made significant breakthroughs in the field of natural language processing and has gradually been applied to the field of humanities and social sciences research. LLMs have a wide range of application value in the field of humanities and social sciences because of its strong text understanding, generation and reasoning capabilities. In humanities and social sciences research, LLMs can analyze large-scale text data and make inferences. This article analyzes the large language model DeepSeek-R1 from seven aspects: low-resource language translation, educational question-answering, student writing improvement in higher education, logical reasoning, educational measurement and psychometrics, public health policy analysis, and art education.Then we compare the answers given by DeepSeek-R1 in the seven aspects with the answers given by o1-preview. DeepSeek-R1 performs well in the humanities and social sciences, answering most questions correctly and logically, and can give reasonable analysis processes and explanations. Compared with o1-preview, it can automatically generate reasoning processes and provide more detailed explanations, which is suitable for beginners or people who need to have a detailed understanding of this knowledge, while o1-preview is more suitable for quick reading. Through analysis, it is found that LLM has broad application potential in the field of humanities and social sciences, and shows great advantages in improving text analysis efficiency, language communication and other fields. LLM's powerful language understanding and generation capabilities enable it to deeply explore complex problems in the field of humanities and social sciences, and provide innovative tools for academic research and practical applications.
- Abstract(参考訳): 近年,Large Language Models (LLMs) の発展は自然言語処理の分野で大きなブレークスルーをもたらし,人文科学や社会科学の研究に徐々に応用されてきた。
LLMは、その強いテキスト理解、生成、推論能力のために、人文科学や社会科学の分野で幅広い応用価値を持っている。
人文科学と社会科学の研究において、LLMは大規模なテキストデータを解析し、推論することができる。
本稿では, 大規模言語モデルであるDeepSeek-R1を, 低リソース言語翻訳, 教育質問応答, 高等教育における生徒の書き方の改善, 論理的推論, 教育計測と心理測定, 公衆衛生政策分析, 美術教育の7つの側面から分析し, その7つの側面においてDeepSeek-R1の回答とo1-previewの回答を比較した。
DeepSeek-R1は人文科学や社会科学でよく働き、ほとんどの質問に正しく論理的に答え、適切な分析プロセスと説明を与える。
o1-previewと比較して、推論プロセスを自動的に生成し、より詳細な説明を提供することができる。
分析の結果,LLMは人文科学や社会科学の分野で広く応用できる可能性があり,テキスト解析の効率向上や言語コミュニケーション,その他の分野において大きなメリットがあることがわかった。
LLMの強力な言語理解と生成能力により、人文科学や社会科学の分野における複雑な問題を深く探求し、学術研究や実践的な応用のための革新的なツールを提供することができる。
関連論文リスト
- Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - Analyzing Nobel Prize Literature with Large Language Models [31.58519246169526]
本研究では,高度言語モデル(LLM),特にo1モデルの文芸分析における能力について検討する。
ハン・カンの「9章」、2024年の受賞者ジョン・フォッセの「友情」、2023年の受賞者ジョン・フォッセの2つのノーベル文学賞を受賞した短編小説に焦点を当て、AIが複雑な文学的要素と関わり得る程度について調査した。
論文 参考訳(メタデータ) (2024-10-22T13:03:28Z) - Evaluation of OpenAI o1: Opportunities and Challenges of AGI [112.0812059747033]
o1-previewは目覚ましい能力を示し、しばしば人間レベルまたは優れたパフォーマンスを実現した。
このモデルは、様々な分野にわたる複雑な推論と知識の統合を必要とするタスクに優れていた。
総合的な結果は、人工知能への大きな進歩を示している。
論文 参考訳(メタデータ) (2024-09-27T06:57:00Z) - A Perspective on Large Language Models, Intelligent Machines, and Knowledge Acquisition [0.6138671548064355]
大言語モデル(LLM)は「知識」を生成できることで知られている。
しかし、抽象概念と推論を理解するためのLLMと人間の能力の間には大きなギャップがある。
我々はこれらの問題を、人間の知識獲得とチューリングテストの哲学的な文脈で論じる。
論文 参考訳(メタデータ) (2024-08-13T03:25:49Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Machine-assisted quantitizing designs: augmenting humanities and social sciences with artificial intelligence [0.0]
大規模言語モデル(LLM)は、人文科学や社会科学におけるデータ分析をスケールアップする前例のない機会であることが示された。
設計原則を定量化し、変換し、言語学から特徴分析し、人間の専門知識と機械のスケーラビリティを透過的に統合する混合手法を構築します。
このアプローチは、1ダース以上のLDM支援ケーススタディで議論され、9つの多様な言語、複数の規律、タスクをカバーしている。
論文 参考訳(メタデータ) (2023-09-24T14:21:50Z) - Language Cognition and Language Computation -- Human and Machine
Language Understanding [51.56546543716759]
言語理解は認知科学とコンピュータ科学の分野で重要な科学的問題である。
これらの規律を組み合わせることで、インテリジェントな言語モデルを構築する上で、新たな洞察が得られますか?
論文 参考訳(メタデータ) (2023-01-12T02:37:00Z) - Systematic Inequalities in Language Technology Performance across the
World's Languages [94.65681336393425]
本稿では,言語技術のグローバルな有用性を評価するためのフレームワークを紹介する。
本分析では, ユーザ対応技術と言語的NLPタスクの両面において, より深く研究されている。
論文 参考訳(メタデータ) (2021-10-13T14:03:07Z) - SocialAI 0.1: Towards a Benchmark to Stimulate Research on
Socio-Cognitive Abilities in Deep Reinforcement Learning Agents [23.719833581321033]
人間との社会的相互作用に参加できる体型自律エージェントを構築することは、AIの主要な課題の1つです。
現在のアプローチは、非常に単純で非多様な社会状況におけるコミュニケーションツールとして言語に焦点を当てています。
人間レベルのAIを目指すためには、より広範な社会的スキルが必要であると私たちは主張します。
論文 参考訳(メタデータ) (2021-04-27T14:16:29Z) - Experience Grounds Language [185.73483760454454]
言語理解研究は、言語が記述する物理的世界と、それが促進する社会的相互作用とを関連づけることに失敗している。
テキストだけで訓練された後にタスクに取り組むための言語処理モデルの驚くべき効果にもかかわらず、成功した言語コミュニケーションは世界の共有経験に依存している。
論文 参考訳(メタデータ) (2020-04-21T16:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。