論文の概要: Large Language Models for History, Philosophy, and Sociology of Science: Interpretive Uses, Methodological Challenges, and Critical Perspectives
- arxiv url: http://arxiv.org/abs/2506.12242v1
- Date: Fri, 13 Jun 2025 21:44:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.592164
- Title: Large Language Models for History, Philosophy, and Sociology of Science: Interpretive Uses, Methodological Challenges, and Critical Perspectives
- Title(参考訳): 科学史・哲学・社会学のための大規模言語モデル:解釈的利用,方法論的課題,批判的視点
- Authors: Arno Simons, Michael Zichert, Adrian Wüthrich,
- Abstract要約: 本稿では,科学史・哲学・社会学研究ツールとしての大規模言語モデル(LLM)の利用について検討する。
LLMは、構造化されていないテキストを処理し、文脈から意味を推測するのに非常に効果的である。
このことは、解釈的方法論を強調し、文脈に依存し、曖昧で、歴史的に位置する意味を理解するHPSSの機会と課題を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the use of large language models (LLMs) as research tools in the history, philosophy, and sociology of science (HPSS). LLMs are remarkably effective at processing unstructured text and inferring meaning from context, offering new affordances that challenge long-standing divides between computational and interpretive methods. This raises both opportunities and challenges for HPSS, which emphasizes interpretive methodologies and understands meaning as context-dependent, ambiguous, and historically situated. We argue that HPSS is uniquely positioned not only to benefit from LLMs' capabilities but also to interrogate their epistemic assumptions and infrastructural implications. To this end, we first offer a concise primer on LLM architectures and training paradigms tailored to non-technical readers. We frame LLMs not as neutral tools but as epistemic infrastructures that encode assumptions about meaning, context, and similarity, conditioned by their training data, architecture, and patterns of use. We then examine how computational techniques enhanced by LLMs, such as structuring data, detecting patterns, and modeling dynamic processes, can be applied to support interpretive research in HPSS. Our analysis compares full-context and generative models, outlines strategies for domain and task adaptation (e.g., continued pretraining, fine-tuning, and retrieval-augmented generation), and evaluates their respective strengths and limitations for interpretive inquiry in HPSS. We conclude with four lessons for integrating LLMs into HPSS: (1) model selection involves interpretive trade-offs; (2) LLM literacy is foundational; (3) HPSS must define its own benchmarks and corpora; and (4) LLMs should enhance, not replace, interpretive methods.
- Abstract(参考訳): 本稿では, 科学史, 哲学, 社会学研究ツールとして, 大規模言語モデル (LLM) の利用について検討する。
LLMは、構造化されていないテキストを処理し、文脈から意味を推測するのに極めて効果的であり、計算と解釈の方法の長い分割に挑戦する新しい余裕を提供する。
このことは、解釈的方法論を強調し、文脈に依存し、曖昧で、歴史的に位置する意味を理解するHPSSの機会と課題を提起する。
我々は,HPSS が LLMs の能力の恩恵を受けるだけでなく,その疫学的仮定やインフラ的含意を問うために一意に位置づけられていることを論じる。
この目的のために、私たちはまず、非技術読者に適したLLMアーキテクチャとトレーニングパラダイムに関する簡潔なプライマーを提供します。
私たちはLSMを中立的なツールではなく、そのトレーニングデータ、アーキテクチャ、使用パターンによって条件付けられた意味、コンテキスト、および類似性に関する仮定を符号化する疫学的基盤として捉えています。
次に、HPSSにおける解釈研究を支援するために、構造化データやパターンの検出、動的プロセスのモデリングなど、LLMによって強化された計算技術をどのように適用できるかを検討する。
本分析では,全コンテキストモデルと生成モデルを比較し,ドメインおよびタスク適応戦略(例えば,継続事前学習,微調整,検索強化生成)を概説し,HPSSにおける解釈的調査におけるそれぞれの強みと限界を評価する。
1)モデル選択は解釈的トレードオフを伴う; (2) LLMリテラシーは基礎的; (3) HPSSは独自のベンチマークとコーパスを定義しなければならない; (4) LLMは解釈的手法を置き換えるべきではない。
関連論文リスト
- Semantic Consistency Regularization with Large Language Models for Semi-supervised Sentiment Analysis [20.503153899462323]
本稿では,半教師付き感情分析のためのフレームワークを提案する。
テキストを意味的に拡張する2つのプロンプト戦略を導入する。
実験により,従来の半教師付き手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2025-01-29T12:03:11Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。