論文の概要: More Parameters Than Populations: A Systematic Literature Review of Large Language Models within Survey Research
- arxiv url: http://arxiv.org/abs/2509.03391v1
- Date: Wed, 03 Sep 2025 15:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.568603
- Title: More Parameters Than Populations: A Systematic Literature Review of Large Language Models within Survey Research
- Title(参考訳): 人口より多くのパラメータ:調査研究における大規模言語モデルの体系的文献レビュー
- Authors: Trent D. Buskirk, Florian Keusch, Leah von der Heyde, Adam Eck,
- Abstract要約: 大きな言語モデル(LLM)は、その可能性を完全に活用するために、新しい技術的課題と前提条件をもたらす。
本稿では,複数の大規模データベースからのキーワード検索に基づく体系的文献レビューの進捗状況について報告する。
本稿では, LLMの潜在的なユースケースの選択例と, 既存の文献の例に基づく落とし穴について論じる。
- 参考スコア(独自算出の注目度): 0.7699714865575188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Survey research has a long-standing history of being a human-powered field, but one that embraces various technologies for the collection, processing, and analysis of various behavioral, political, and social outcomes of interest, among others. At the same time, Large Language Models (LLMs) bring new technological challenges and prerequisites in order to fully harness their potential. In this paper, we report work-in-progress on a systematic literature review based on keyword searches from multiple large-scale databases as well as citation networks that assesses how LLMs are currently being applied within the survey research process. We synthesize and organize our findings according to the survey research process to include examples of LLM usage across three broad phases: pre-data collection, data collection, and post-data collection. We discuss selected examples of potential use cases for LLMs as well as its pitfalls based on examples from existing literature. Considering survey research has rich experience and history regarding data quality, we discuss some opportunities and describe future outlooks for survey research to contribute to the continued development and refinement of LLMs.
- Abstract(参考訳): サーベイリサーチは、人間の力を持つ分野である長年の歴史があるが、様々な行動、政治的、社会的成果の収集、処理、分析のために様々な技術を取り入れている。
同時に、LLM(Large Language Models)は、その潜在能力を十分に活用するために、新しい技術的課題と前提条件をもたらす。
本稿では,複数の大規模データベースからのキーワード検索に基づく体系的な文献レビューと,LLMが現在調査プロセスにどのように適用されているかを評価する引用ネットワークについて報告する。
本研究は,データ収集,データ収集,ポストデータ収集の3段階にわたるLCM使用例を含む調査研究プロセスに従って,これらの知見を合成,整理する。
本稿では, LLMの潜在的なユースケースの選択例と, 既存の文献の例に基づく落とし穴について論じる。
調査研究にはデータ品質に関する豊富な経験と歴史があることから,LLMの継続的な開発・改良に寄与する調査研究の今後の展望を論じる。
関連論文リスト
- Large Language Models in the Data Science Lifecycle: A Systematic Mapping Study [0.0]
大規模言語モデル(LLM)は、多くのドメインにまたがるトランスフォーメーションツールとして登場した。
この体系的なマッピング研究は、データサイエンスライフサイクル全体を通してLLMの応用を包括的に検証する。
論文 参考訳(メタデータ) (2025-08-12T23:20:10Z) - A Comprehensive Survey on Long Context Language Modeling [118.5540791080351]
Long Context Language Models (LCLM) は、広範囲な入力を効果的かつ効率的に処理し、分析する。
本調査は, LCLMの有効かつ効率的な利用方法, LCLMを効率的に訓練・展開する方法, LCLMを総合的に評価・分析する方法の3つの重要な側面から構成されている。
論文 参考訳(メタデータ) (2025-03-20T17:06:28Z) - What is the Role of Large Language Models in the Evolution of Astronomy Research? [0.0]
ChatGPTや他の最先端の大規模言語モデル(LLM)は、急速に複数のフィールドを変換している。
これらのモデルは、一般に広大なデータセットに基づいて訓練され、人間のようなテキスト生成能力を示す。
論文 参考訳(メタデータ) (2024-09-30T12:42:25Z) - Data-Centric AI in the Age of Large Language Models [51.20451986068925]
本稿では,大規模言語モデル(LLM)に着目した,AI研究におけるデータ中心の視点を提案する。
本研究では,LLMの発達段階(事前学習や微調整など)や推論段階(文脈内学習など)において,データが有効であることを示す。
データを中心とした4つのシナリオを特定し、データ中心のベンチマークとデータキュレーション、データ属性、知識伝達、推論コンテキスト化をカバーします。
論文 参考訳(メタデータ) (2024-06-20T16:34:07Z) - On LLMs-Driven Synthetic Data Generation, Curation, and Evaluation: A Survey [26.670507323784616]
大規模言語モデル(LLM)は、合成データ生成による現実世界のデータ制限を軽減するために、データ中心のソリューションを提供する。
本稿では、合成データ生成の一般的なワークフローに基づく、関連する研究の組織を提供する。
論文 参考訳(メタデータ) (2024-06-14T07:47:09Z) - LLMs Meet Multimodal Generation and Editing: A Survey [89.76691959033323]
本調査では,画像,ビデオ,3D,オーディオなど,さまざまな領域にわたるマルチモーダル生成と編集について詳述する。
これらの分野でのマイルストーンの成果を要約し、これらの研究をLLM法とCLIP/T5法に分類する。
我々は、既存の生成モデルを人間とコンピュータの相互作用に活用できるツール強化マルチモーダルエージェントを掘り下げる。
論文 参考訳(メタデータ) (2024-05-29T17:59:20Z) - A Survey of Multimodal Large Language Model from A Data-centric Perspective [46.57232264950785]
マルチモーダル大言語モデル(MLLM)は、複数のモーダルからのデータの統合と処理によって、標準的な大言語モデルの能力を高める。
データはこれらのモデルの開発と改良において重要な役割を担います。
論文 参考訳(メタデータ) (2024-05-26T17:31:21Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。