論文の概要: Deep literature reviews: an application of fine-tuned language models to migration research
- arxiv url: http://arxiv.org/abs/2504.13685v1
- Date: Thu, 17 Apr 2025 15:55:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 15:39:39.335623
- Title: Deep literature reviews: an application of fine-tuned language models to migration research
- Title(参考訳): Deep Literature Review: A application of fine-tuned language model to migration research
- Authors: Stefano M. Iacus, Haodong Qi, Jiyoung Han,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いた従来の書誌的手法を拡張した文献レビューのためのハイブリッドフレームワークを提案する。
オープンソースのLCMを微調整することで,大量の研究コンテンツから質的洞察をスケーラブルに抽出することができる。
この枠組みを20000以上の人的移動に関する科学的論文に適用することにより、ドメイン適応型LLMが「スペシャリスト」モデルとして機能できることを実証する。
- 参考スコア(独自算出の注目度): 0.08192907805418585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a hybrid framework for literature reviews that augments traditional bibliometric methods with large language models (LLMs). By fine-tuning open-source LLMs, our approach enables scalable extraction of qualitative insights from large volumes of research content, enhancing both the breadth and depth of knowledge synthesis. To improve annotation efficiency and consistency, we introduce an error-focused validation process in which LLMs generate initial labels and human reviewers correct misclassifications. Applying this framework to over 20000 scientific articles about human migration, we demonstrate that a domain-adapted LLM can serve as a "specialist" model - capable of accurately selecting relevant studies, detecting emerging trends, and identifying critical research gaps. Notably, the LLM-assisted review reveals a growing scholarly interest in climate-induced migration. However, existing literature disproportionately centers on a narrow set of environmental hazards (e.g., floods, droughts, sea-level rise, and land degradation), while overlooking others that more directly affect human health and well-being, such as air and water pollution or infectious diseases. This imbalance highlights the need for more comprehensive research that goes beyond physical environmental changes to examine their ecological and societal consequences, particularly in shaping migration as an adaptive response. Overall, our proposed framework demonstrates the potential of fine-tuned LLMs to conduct more efficient, consistent, and insightful literature reviews across disciplines, ultimately accelerating knowledge synthesis and scientific discovery.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を用いた従来の書誌的手法を拡張した文献レビューのためのハイブリッドフレームワークを提案する。
オープンソースのLCMを微調整することにより,大量の研究コンテンツから質的洞察をスケーラブルに抽出し,知識合成の幅と深さを両立させることができる。
アノテーションの効率と一貫性を向上させるために,LLMが初期ラベルを生成し,人間レビュアーが誤分類を正すエラー中心の検証プロセスを導入する。
この枠組みを20000以上の人的移住に関する科学的論文に適用することにより、ドメイン適応型LLMが「スペシャリスト」モデルとして機能し、関連する研究を正確に選択し、新たなトレンドを検知し、重要な研究ギャップを識別できることを示した。
特に、LCMが支援するレビューは、気候変動による移住に対する学術的な関心が高まりつつあることを示している。
しかし、既存の文献は、空気や水質汚染や感染症など、人間の健康や健康にもっと直接的に影響を及ぼすもの(例えば、洪水、干ばつ、海面上昇、土地の劣化など)の狭い環境問題に重点を置いている。
この不均衡は、特に適応的な反応として移動を形作る際に、その生態学的および社会的結果を調べるために、物理的な環境変化を超えて、より包括的な研究の必要性を強調している。
全体として,本提案フレームワークは,より効率的で一貫性があり,洞察に富んだ文献レビューを行うための微調整LDMの可能性を示し,最終的には知識合成と科学的発見を加速させる。
関連論文リスト
- A Review on Scientific Knowledge Extraction using Large Language Models in Biomedical Sciences [1.8308043661908204]
本稿では,生物医学領域における大規模言語モデル(LLM)の最先端応用について概説する。
LLMは、幻覚、文脈理解、一般化する能力など、大きな可能性を秘めているが、大きな課題が残っている。
我々は、医療文献へのアクセスを改善し、医療における有意義な発見を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-04T18:26:13Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Improving Scientific Hypothesis Generation with Knowledge Grounded Large Language Models [20.648157071328807]
大規模言語モデル(LLM)は、既存の知識を分析することによって、新しい研究の方向性を特定することができる。
LLMは幻覚を発生させる傾向がある。
我々は,知識グラフから外部構造的知識を統合することで,LLM仮説の生成を促進するシステムKG-CoIを提案する。
論文 参考訳(メタデータ) (2024-11-04T18:50:00Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - SciAssess: Benchmarking LLM Proficiency in Scientific Literature Analysis [26.111514038691837]
SciAssessは、科学文献分析におけるLarge Language Models(LLM)の総合的な評価のためのベンチマークである。
記憶機能評価(L1)、記憶機能評価(L2)、分析・推論機能評価(L3)により,LLMの有効性を徹底的に評価することを目的とする。
それは、生物学、化学、材料、医学など、様々な科学分野から引き出された様々なタスクを含んでいる。
論文 参考訳(メタデータ) (2024-03-04T12:19:28Z) - Scientific Large Language Models: A Survey on Biological & Chemical Domains [47.97810890521825]
大規模言語モデル(LLM)は、自然言語理解の強化において、変革的な力として現れてきた。
LLMの応用は従来の言語境界を超えて、様々な科学分野で開発された専門的な言語システムを含んでいる。
AI for Science(AI for Science)のコミュニティで急成長している分野として、科学LLMは包括的な探査を義務付けている。
論文 参考訳(メタデータ) (2024-01-26T05:33:34Z) - A Reliable Knowledge Processing Framework for Combustion Science using
Foundation Models [0.0]
この研究は、多様な燃焼研究データを処理し、実験研究、シミュレーション、文献にまたがるアプローチを導入している。
開発されたアプローチは、データのプライバシと精度を最適化しながら、計算と経済の費用を最小化する。
このフレームワークは、最小限の人間の監視で、常に正確なドメイン固有の応答を提供する。
論文 参考訳(メタデータ) (2023-12-31T17:15:25Z) - An Interdisciplinary Outlook on Large Language Models for Scientific
Research [3.4108358650013573]
本稿では,異なる学問分野におけるLarge Language Models(LLM)の機能と制約について述べる。
本稿では, LLM が学術調査の強化を図り, 大量の出版物を要約することで, 文献レビューの促進などの具体的な事例を提示する。
LLMが直面する課題には、広範囲で偏見のあるデータセットへの依存や、それらの使用から生じる潜在的な倫理的ジレンマが含まれる。
論文 参考訳(メタデータ) (2023-11-03T19:41:09Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [56.5556523013924]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。