論文の概要: Recalibrating the Compass: Integrating Large Language Models into Classical Research Methods
- arxiv url: http://arxiv.org/abs/2505.19402v1
- Date: Mon, 26 May 2025 01:38:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.095722
- Title: Recalibrating the Compass: Integrating Large Language Models into Classical Research Methods
- Title(参考訳): コンパスの再検討:古典的研究手法への大規模言語モデルの統合
- Authors: Tai-Quan Peng, Xuzhen Yang,
- Abstract要約: 本稿では,大規模言語モデル (LLM) がコミュニケーション研究における中核的な定量的手法をどのように変換しているかを検討する。
古典的なアプローチを置き換えるのではなく、LLMはテキストのコーディングと解釈の新しい可能性を導入している。
この論文は、分野がLLMと生成AIを統合するため、古典的な研究ロジックは依然として不可欠であると主張している。
- 参考スコア(独自算出の注目度): 0.48670895845367385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines how large language models (LLMs) are transforming core quantitative methods in communication research in particular, and in the social sciences more broadly-namely, content analysis, survey research, and experimental studies. Rather than replacing classical approaches, LLMs introduce new possibilities for coding and interpreting text, simulating dynamic respondents, and generating personalized and interactive stimuli. Drawing on recent interdisciplinary work, the paper highlights both the potential and limitations of LLMs as research tools, including issues of validity, bias, and interpretability. To situate these developments theoretically, the paper revisits Lasswell's foundational framework -- "Who says what, in which channel, to whom, with what effect?" -- and demonstrates how LLMs reconfigure message studies, audience analysis, and effects research by enabling interpretive variation, audience trajectory modeling, and counterfactual experimentation. Revisiting the metaphor of the methodological compass, the paper argues that classical research logics remain essential as the field integrates LLMs and generative AI. By treating LLMs not only as technical instruments but also as epistemic and cultural tools, the paper calls for thoughtful, rigorous, and imaginative use of LLMs in future communication and social science research.
- Abstract(参考訳): 本稿では,大規模言語モデル (LLM) がコミュニケーション研究, 社会科学において, より広義に, コンテンツ分析, 調査研究, 実験研究において, 重要な定量的手法をどう変えつつあるかを検討する。
古典的なアプローチを置き換えるのではなく、LLMはテキストのコーディングと解釈、動的回答者のシミュレート、パーソナライズされた対話的な刺激を生成する新しい可能性を導入している。
論文は最近の学際的な研究に基づいて, 妥当性, バイアス, 解釈可能性といった研究ツールとしてのLLMの可能性と限界を強調した。
理論的には、この論文はラズウェルの基礎的な枠組みを見直し、「誰がどのチャネル、どのチャネル、誰、どの効果を持つか」を述べ、LLMが解釈的変動、オーディエンス・トラジェクトリ・モデリング、および反実的実験を可能にすることによって、メッセージ研究、オーディエンス・アナリティクス、エフェクト・リサーチをどのように再構成するかを示す。
方法論的コンパスのメタファーを再考し、この分野がLLMと生成AIを統合しているため、古典的な研究ロジックは依然として不可欠であると主張する。
LLMを技術機器としてだけでなく、疫学や文化の道具としても扱うことにより、将来のコミュニケーションや社会科学研究において、LLMの思慮深く、厳密で想像力に富んだ利用が求められている。
関連論文リスト
- Large Language Models Penetration in Scholarly Writing and Peer Review [43.600778691549706]
学術的な視点と次元にまたがる大規模言語モデルの浸透を評価する。
本実験は,学術的プロセスにおけるLLMの役割の増大を明らかにするために,textttLLMetricaの有効性を実証した。
これらの知見は、学術的信頼性を維持するために、LLMの使用における透明性、説明責任、倫理的実践の必要性を強調した。
論文 参考訳(メタデータ) (2025-02-16T16:37:34Z) - When Text Embedding Meets Large Language Model: A Comprehensive Survey [17.263184207651072]
この調査は、大きな言語モデル(LLM)とテキスト埋め込みの相互作用に焦点を当てている。
様々な研究および応用分野からの貢献の、新しく体系的な概要を提供する。
この分析に基づいて,テキスト埋め込みの進化に向けた今後の方向性を概説する。
論文 参考訳(メタデータ) (2024-12-12T10:50:26Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Exploring the landscape of large language models: Foundations, techniques, and challenges [8.042562891309414]
この記事では、コンテキスト内学習の力学と微調整アプローチのスペクトルについて光を当てている。
革新的な強化学習フレームワークを通じて、LLMが人間の好みとより緊密に連携する方法について検討する。
LLMデプロイメントの倫理的側面は議論され、マインドフルで責任あるアプリケーションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。