論文の概要: Generative Large Language Models (gLLMs) in Content Analysis: A Practical Guide for Communication Research
- arxiv url: http://arxiv.org/abs/2510.24337v1
- Date: Tue, 28 Oct 2025 12:01:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 17:50:20.185792
- Title: Generative Large Language Models (gLLMs) in Content Analysis: A Practical Guide for Communication Research
- Title(参考訳): コンテンツ分析における生成型大言語モデル(gLLMs) : コミュニケーション研究のための実践的ガイド
- Authors: Daria Kravets-Meinke, Hannah Schmid-Petri, Sonja Niemann, Ute Schmid,
- Abstract要約: 生成型大規模言語モデル (gLLM) は、コンテンツ分析のためのコミュニケーション研究にますます利用されている。
これらの可能性にもかかわらず、通信研究の方法論的ツールキットへのgLLMの統合はまだ未開発である。
本稿では,gLLMを用いた量的コンテンツ分析に関する最近の研究を合成し,これらの課題をナビゲートするための総合的ベストプラクティスガイドを提案する。
- 参考スコア(独自算出の注目度): 2.390467032220061
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Large Language Models (gLLMs), such as ChatGPT, are increasingly being used in communication research for content analysis. Studies show that gLLMs can outperform both crowd workers and trained coders, such as research assistants, on various coding tasks relevant to communication science, often at a fraction of the time and cost. Additionally, gLLMs can decode implicit meanings and contextual information, be instructed using natural language, deployed with only basic programming skills, and require little to no annotated data beyond a validation dataset - constituting a paradigm shift in automated content analysis. Despite their potential, the integration of gLLMs into the methodological toolkit of communication research remains underdeveloped. In gLLM-assisted quantitative content analysis, researchers must address at least seven critical challenges that impact result quality: (1) codebook development, (2) prompt engineering, (3) model selection, (4) parameter tuning, (5) iterative refinement, (6) validation of the model's reliability, and optionally, (7) performance enhancement. This paper synthesizes emerging research on gLLM-assisted quantitative content analysis and proposes a comprehensive best-practice guide to navigate these challenges. Our goal is to make gLLM-based content analysis more accessible to a broader range of communication researchers and ensure adherence to established disciplinary quality standards of validity, reliability, reproducibility, and research ethics.
- Abstract(参考訳): ChatGPTのようなgLLM(Generative Large Language Models)は、コンテンツ分析のためのコミュニケーション研究にますます利用されている。
研究によると、gLLMは、しばしば時間とコストのごく一部で、コミュニケーション科学に関連する様々なコーディングタスクにおいて、群衆労働者と研究アシスタントのような訓練されたプログラマーの両方より優れている。
さらに、gLLMは暗黙的な意味や文脈情報をデコードし、自然言語を使って指示し、基本的なプログラミングスキルだけでデプロイし、バリデーションデータセットを超えて注釈付きデータをほとんど必要とせず、自動コンテンツ分析のパラダイムシフトを構成することができる。
これらの可能性にもかかわらず、通信研究の方法論的ツールキットへのgLLMの統合はまだ未開発である。
gLLMを用いた定量的コンテンツ分析では,(1)コードブック開発,(2)プロンプトエンジニアリング,(3)モデル選択,(4)パラメータチューニング,(5)反復改善,(6)モデルの信頼性の検証,および(7)性能向上という,結果品質に影響を与える少なくとも7つの重要な課題に対処する必要がある。
本稿では,gLLMを用いた量的コンテンツ分析に関する最近の研究を合成し,これらの課題をナビゲートするための総合的ベストプラクティスガイドを提案する。
我々のゴールは、gLLMベースのコンテンツ分析を、幅広いコミュニケーション研究者によりアクセスしやすくし、信頼性、再現性、研究倫理の確立された学際的品質基準に固執することである。
関連論文リスト
- Advancing AI Research Assistants with Expert-Involved Learning [84.30323604785646]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、生物医学的な発見を促進することを約束するが、その信頼性は未定である。
ARIEL(AI Research Assistant for Expert-in-the-Loop Learning)は,オープンソースの評価・最適化フレームワークである。
LMMは詳細な視覚的推論に苦しむのに対し、最先端のモデルでは流動性はあるが不完全な要約を生成する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - iTRI-QA: a Toolset for Customized Question-Answer Dataset Generation Using Language Models for Enhanced Scientific Research [1.2411445143550854]
本稿では,iTRI (Interactive Trained Research Innovator) - QA (Interactive Trained Research Innovator) と呼ばれる,カスタマイズされた質問応答(QA)データセットの開発のためのツールを提案する。
提案手法は,キュレートされたQAデータセットと特殊な研究論文データセットを統合し,微調整されたLMを用いて応答の文脈的関連性と精度を向上させる。
このパイプラインは動的でドメイン固有のQAシステムを提供し、将来のLMデプロイメントに適用される。
論文 参考訳(メタデータ) (2025-01-27T23:38:39Z) - Empowering Large Language Models in Wireless Communication: A Novel Dataset and Fine-Tuning Framework [81.29965270493238]
我々は,無線通信アプリケーションのための大規模言語モデル(LLM)の評価と微調整を目的とした,特殊なデータセットを開発した。
データセットには、真/偽と複数選択型を含む、さまざまなマルチホップ質問が含まれている。
本稿では,PVI(Pointwise V-Information)に基づく微調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T16:19:53Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Reconciling Methodological Paradigms: Employing Large Language Models as Novice Qualitative Research Assistants in Talent Management Research [1.0949553365997655]
本研究では,RAGに基づくLarge Language Models (LLMs) を用いた面接文の解析手法を提案する。
この研究の斬新さは、初歩的な研究助手として機能するLSMによって強化された研究調査をストラテジー化することにある。
以上の結果から, LLM拡張RAGアプローチは, 手動で生成したトピックと比較して, 興味のあるトピックを抽出できることが示唆された。
論文 参考訳(メタデータ) (2024-08-20T17:49:51Z) - MMSci: A Dataset for Graduate-Level Multi-Discipline Multimodal Scientific Understanding [59.41495657570397]
本稿では,72の科学分野をカバーするNature Communicationsの記事からまとめられた包括的データセットについて述べる。
2つのベンチマークタスク(図のキャプションと複数選択)で19のプロプライエタリモデルとオープンソースモデルを評価し,人手による注釈を行った。
タスク固有データを用いた細調整Qwen2-VL-7Bは、GPT-4oや人間の専門家でさえも、マルチチョイス評価において優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - Can Large Language Models Serve as Data Analysts? A Multi-Agent Assisted Approach for Qualitative Data Analysis [4.539569292151314]
大規模言語モデル(LLM)は、ソフトウェア工学(SE)における人間とロボットの協調を可能にする
本研究では,人間の意思決定支援をAIと相乗化して,さまざまな定性的データ分析手法を自動化するLLMベースのマルチエージェントシステムの設計と開発を行う。
論文 参考訳(メタデータ) (2024-02-02T13:10:46Z) - Supporting Qualitative Analysis with Large Language Models: Combining
Codebook with GPT-3 for Deductive Coding [45.5690960017762]
本研究は,大言語モデル (LLM) を用いた帰納的符号化支援について検討する。
タスク固有のモデルを訓練する代わりに、事前訓練されたLLMは、素早い学習を通じて微調整することなく、様々なタスクに直接使用することができる。
好奇心駆動型問合せコーディングタスクをケーススタディとして, GPT-3とエキスパートドラフトコードブックを組み合わせることで, 提案手法は有意な一致を達成し, 有能な結果を得た。
論文 参考訳(メタデータ) (2023-04-17T04:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。