論文の概要: Depth and Autonomy: A Framework for Evaluating LLM Applications in Social Science Research
- arxiv url: http://arxiv.org/abs/2510.25432v1
- Date: Wed, 29 Oct 2025 11:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.494255
- Title: Depth and Autonomy: A Framework for Evaluating LLM Applications in Social Science Research
- Title(参考訳): 深度と自律性:社会科学研究におけるLLM応用評価フレームワーク
- Authors: Ali Sanaei, Ali Rajabzadeh,
- Abstract要約: 本稿では,大言語モデル(LLM)を解釈深度と自律性という2つの次元に沿って利用するフレームワークを提案する。
本稿では,これら2つの側面に関する文献の現状を,Web of Scienceで公開されているすべての社会科学論文に基づいて紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly utilized by researchers across a wide range of domains, and qualitative social science is no exception; however, this adoption faces persistent challenges, including interpretive bias, low reliability, and weak auditability. We introduce a framework that situates LLM usage along two dimensions, interpretive depth and autonomy, thereby offering a straightforward way to classify LLM applications in qualitative research and to derive practical design recommendations. We present the state of the literature with respect to these two dimensions, based on all published social science papers available on Web of Science that use LLMs as a tool and not strictly as the subject of study. Rather than granting models expansive freedom, our approach encourages researchers to decompose tasks into manageable segments, much as they would when delegating work to capable undergraduate research assistants. By maintaining low levels of autonomy and selectively increasing interpretive depth only where warranted and under supervision, one can plausibly reap the benefits of LLMs while preserving transparency and reliability.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い領域の研究者によってますます活用され、質的な社会科学も例外ではないが、解釈バイアス、信頼性の低い、監査性の弱いといった永続的な課題に直面している。
本研究では,2次元の解釈深度と自律性の両面にLCMの利用を集中させる枠組みを導入し,LCMアプリケーションを質的研究で分類し,実用的な設計勧告を導出する手法を提案する。
本稿では,この2つの次元に関する文献の現状について述べる。学術論文は,LLMをツールとして,厳密には研究対象としてではなく,科学のWeb上で利用可能なすべての社会科学論文に基づいている。
我々のアプローチは、モデルを拡大する自由を与えるのではなく、研究者が有能な学部研究助手に仕事を委任するときのように、タスクを管理可能なセグメントに分解することを奨励します。
低レベルの自律性を維持し、監督下で保証された場合にのみ解釈深度を選択的に増加させることで、透明性と信頼性を維持しながらLLMのメリットを確実に享受することができる。
関連論文リスト
- Large Language Models Penetration in Scholarly Writing and Peer Review [43.600778691549706]
学術的な視点と次元にまたがる大規模言語モデルの浸透を評価する。
本実験は,学術的プロセスにおけるLLMの役割の増大を明らかにするために,textttLLMetricaの有効性を実証した。
これらの知見は、学術的信頼性を維持するために、LLMの使用における透明性、説明責任、倫理的実践の必要性を強調した。
論文 参考訳(メタデータ) (2025-02-16T16:37:34Z) - Practical Considerations for Agentic LLM Systems [5.455744338342196]
本稿では、確立されたアプリケーションパラダイムの文脈における研究コミュニティからの実行可能な洞察と考察について述べる。
すなわち、アプリケーション中心の文献における一般的な実践に基づいて、関連する研究成果を4つの幅広いカテゴリ – プランニング、メモリツール、コントロールフロー – に位置づける。
論文 参考訳(メタデータ) (2024-12-05T11:57:49Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - A Survey on Large Language Model based Autonomous Agents [105.2509166861984]
大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。
本稿では,LLMに基づく自律エージェントの分野を総合的な観点から体系的に検討する。
本稿では、社会科学、自然科学、工学の分野におけるLLMベースの自律エージェントの多様な応用について概観する。
論文 参考訳(メタデータ) (2023-08-22T13:30:37Z) - Through the Lens of Core Competency: Survey on Evaluation of Large
Language Models [27.271533306818732]
大規模言語モデル(LLM)は優れた性能と幅広い実用性を持っている。
既存の評価タスクは、現実世界のシナリオにおける幅広いアプリケーションに追いつくのは難しい。
LLMの4つのコア能力は、推論、知識、信頼性、安全性などである。
この能力アーキテクチャの下では、類似したタスクを組み合わせて対応する能力を反映し、新しいタスクをシステムに簡単に追加することができる。
論文 参考訳(メタデータ) (2023-08-15T17:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。