論文の概要: On the Use of a Large Language Model to Support the Conduction of a Systematic Mapping Study: A Brief Report from a Practitioner's View
- arxiv url: http://arxiv.org/abs/2602.10147v1
- Date: Mon, 09 Feb 2026 15:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.180795
- Title: On the Use of a Large Language Model to Support the Conduction of a Systematic Mapping Study: A Brief Report from a Practitioner's View
- Title(参考訳): 大規模言語モデルを用いた体系的マッピング学習の実施支援について:実践者の視点からの一報告
- Authors: Cauã Ferreira Barros, Marcos Kalinowski, Mohamad Kassab, Valdemar Vicente Graciano Neto,
- Abstract要約: 大規模言語モデル(LLM)は大量のテキストデータとエビデンス合成のための支援方法を扱うことができる。
本稿では,LLMを用いた系統地図研究の導電性に関する経験報告を報告する。
- 参考スコア(独自算出の注目度): 2.0199251985015434
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The use of Large Language Models (LLMs) has drawn growing interest within the scientific community. LLMs can handle large volumes of textual data and support methods for evidence synthesis. Although recent studies highlight the potential of LLMs to accelerate screening and data extraction steps in systematic reviews, detailed reports of their practical application throughout the entire process remain scarce. This paper presents an experience report on the conduction of a systematic mapping study with the support of LLMs, describing the steps followed, the necessary adjustments, and the main challenges faced. Positive aspects are discussed, such as (i) the significant reduction of time in repetitive tasks and (ii) greater standardization in data extraction, as well as negative aspects, including (i) considerable effort to build reliable well-structured prompts, especially for less experienced users, since achieving effective prompts may require several iterations and testing, which can partially offset the expected time savings, (ii) the occurrence of hallucinations, and (iii) the need for constant manual verification. As a contribution, this work offers lessons learned and practical recommendations for researchers interested in adopting LLMs in systematic mappings and reviews, highlighting both efficiency gains and methodological risks and limitations to be considered.
- Abstract(参考訳): LLM(Large Language Models)の使用は、科学コミュニティ内での関心が高まっている。
LLMは大量のテキストデータを処理し、エビデンス合成を支援する。
最近の研究は、体系的なレビューにおいて、LCMがスクリーニングとデータ抽出のステップを加速する可能性を強調しているが、そのプロセス全体を通して、それらの実践的応用に関する詳細な報告は乏しい。
本稿では,LLMの支援による系統地図研究の実施状況について報告し,その後の歩み,必要な調整,直面する主な課題について述べる。
肯定的な側面が議論される。
一 反復作業における時間を大幅に短縮すること
(II)データ抽出における標準化の強化、及び負の側面を含む
(i) 信頼性の高い構造化されたプロンプトを構築するための多大な努力、特に経験の浅いユーザには、効果的なプロンプトを達成するには、いくつかのイテレーションとテストが必要になる可能性があるため、期待される時間節約を部分的に相殺することができる。
二 幻覚の発生、及び
三 定期的な手動検証の必要性
コントリビューションとして、この研究は、体系的なマッピングとレビューにLLMを採用することに興味のある研究者に対して、学習と実践的なレコメンデーションを提供し、効率の向上と方法論的リスクと考慮すべき制限の両方を強調している。
関連論文リスト
- Leveraging LLMs for Title and Abstract Screening for Systematic Review: A Cost-Effective Dynamic Few-Shot Learning Approach [4.746720136392869]
本稿では,大言語モデル(LLM)のタイトルと抽象的なスクリーニング作業における効率と性能を改善するために,2段階の動的数ショット学習手法を提案する。
提案手法を10の体系的レビューで評価し,その高い一般化性と費用対効果を実証した。
論文 参考訳(メタデータ) (2025-12-12T03:51:54Z) - LLM-Specific Utility: A New Perspective for Retrieval-Augmented Generation [110.610512800947]
Retrieval-augmented Generation (RAG)は、外部知識を取り入れた大規模言語モデル(LLM)を強化する。
既存の研究はしばしばユーティリティをジェネリック属性として扱い、異なるLLMが同じ通路から異なる利益をもたらすという事実を無視している。
論文 参考訳(メタデータ) (2025-10-13T12:57:45Z) - CARPAS: Towards Content-Aware Refinement of Provided Aspects for Summarization in Large Language Models [16.41705871316774]
本稿では,CARPAS(Content-Aware Refinement of Productd aspects for Summarization)を紹介する。
本稿では,関連する側面の数を予測するための予備的なサブタスクを提案し,その予測数が効果的なガイダンスとして機能できることを実証する。
実験の結果,提案手法は全データセットのパフォーマンスを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-10-08T16:16:46Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Scaling Up Summarization: Leveraging Large Language Models for Long Text Extractive Summarization [0.27624021966289597]
本稿では,Large Language Models (LLM) を利用した抽出要約フレームワークであるEYEGLAXSを紹介する。
EYEGLAXSは、事実的および文法的整合性を保証するために抽出的な要約に焦点を当てている。
このシステムはPubMedやArXivといった有名なデータセットに新しいパフォーマンスベンチマークを設定する。
論文 参考訳(メタデータ) (2024-08-28T13:52:19Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - A Survey on Efficient Inference for Large Language Models [25.572035747669275]
大きな言語モデル(LLM)は、様々なタスクにまたがる顕著なパフォーマンスのために、広く注目を集めている。
LLM推論のかなりの計算とメモリ要件は、リソース制約のあるシナリオへの展開に困難をもたらす。
本稿では,LLMの効率的な推論について,既存の文献を包括的に調査する。
論文 参考訳(メタデータ) (2024-04-22T15:53:08Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Had enough of experts? Quantitative knowledge retrieval from large language models [4.091195951668217]
大規模言語モデル(LLM)は、説得力のある自然言語配列を生成する能力について広く研究されている。
我々は、専門家のような事前知識を抽出し、欠落したデータを出力することで、LLMを活用してベイズモデルを強化するフレームワークを導入する。
論文 参考訳(メタデータ) (2024-02-12T16:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。