論文の概要: PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models
- arxiv url: http://arxiv.org/abs/2306.14905v1
- Date: Thu, 15 Jun 2023 02:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-02 13:26:39.514978
- Title: PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models
- Title(参考訳): PRISMA-DFLLM:ドメイン特化大言語モデルを用いた体系的文献レビューのためのPRISMAの拡張
- Authors: Teo Susnjak
- Abstract要約: 本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the proliferation of open-sourced Large Language Models (LLMs) and
efficient finetuning techniques, we are on the cusp of the emergence of
numerous domain-specific LLMs that have been finetuned for expertise across
specialized fields and applications for which the current general-purpose LLMs
are unsuitable. In academia, this technology has the potential to revolutionize
the way we conduct systematic literature reviews (SLRs), access knowledge and
generate new insights. This paper proposes an AI-enabled methodological
framework that combines the power of LLMs with the rigorous reporting
guidelines of the Preferred Reporting Items for Systematic Reviews and
Meta-Analyses (PRISMA). By finetuning LLMs on domain-specific academic papers
that have been selected as a result of a rigorous SLR process, the proposed
PRISMA-DFLLM (for Domain-specific Finetuned LLMs) reporting guidelines offer
the potential to achieve greater efficiency, reusability and scalability, while
also opening the potential for conducting incremental living systematic reviews
with the aid of LLMs. Additionally, the proposed approach for leveraging LLMs
for SLRs enables the dissemination of finetuned models, empowering researchers
to accelerate advancements and democratize cutting-edge research. This paper
presents the case for the feasibility of finetuned LLMs to support rigorous
SLRs and the technical requirements for realizing this. This work then proposes
the extended PRISMA-DFLLM checklist of reporting guidelines as well as the
advantages, challenges, and potential implications of implementing
PRISMA-DFLLM. Finally, a future research roadmap to develop this line of
AI-enabled SLRs is presented, paving the way for a new era of evidence
synthesis and knowledge discovery.
- Abstract(参考訳): オープンソースのLarge Language Models(LLMs)の普及と効率的な微調整技術により、私たちは、専門分野や現在の汎用LLMが適さない分野にまたがる専門知識のために微調整された多くのドメイン固有LLMの出現の瀬戸際にある。
学界では、この技術は体系的な文献レビュー(slr)のやり方を革新し、知識にアクセスし、新しい洞察を生み出す可能性がある。
本稿では,LLMの能力と,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせた,AI対応の方法論フレームワークを提案する。
厳密なSLRプロセスによって選択されたドメイン固有の学術論文を微調整することにより、提案されたPRISMA-DFLLM(Domain-specific Finetuned LLMs)レポートガイドラインは、より大きな効率性、再利用性、スケーラビリティを実現すると同時に、LLMの助けを借りてインクリメンタルな体系的なレビューを行う可能性を開放する。
さらに,LSMをSLRに活用する手法により,微調整モデルの普及が可能となり,研究者が進歩を加速し,最先端の研究を民主化することができる。
本稿では、厳密なSLRをサポートするための微調整LDMの実現可能性とその実現のための技術的要件について述べる。
この研究は、報告ガイドラインの拡張されたPRISMA-DFLLMチェックリストと、PRISMA-DFLLMの実装の利点、課題、および潜在的影響について提案する。
最後に、このAI対応のSLRを開発するための将来の研究ロードマップを示し、エビデンス合成と知識発見の新しい時代への道を開く。
関連論文リスト
- The Ultimate Guide to Fine-Tuning LLMs from Basics to Breakthroughs: An Exhaustive Review of Technologies, Research, Best Practices, Applied Research Challenges and Opportunities [0.35998666903987897]
本稿では,Large Language Models (LLM) の微調整について検討する。
従来の自然言語処理(NLP)モデルから、AIにおける彼らの重要な役割まで、LLMの歴史的進化を概説している。
本報告では, 微調整LDMのための構造化7段パイプラインについて紹介する。
論文 参考訳(メタデータ) (2024-08-23T14:48:02Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Exploring the landscape of large language models: Foundations, techniques, and challenges [8.042562891309414]
この記事では、コンテキスト内学習の力学と微調整アプローチのスペクトルについて光を当てている。
革新的な強化学習フレームワークを通じて、LLMが人間の好みとより緊密に連携する方法について検討する。
LLMデプロイメントの倫理的側面は議論され、マインドフルで責任あるアプリケーションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - Automating Research Synthesis with Domain-Specific Large Language Model Fine-Tuning [0.9110413356918055]
本研究は,SLR(Systematic Literature Reviews)の自動化にLLM(Funture-Tuned Large Language Models)を用いた先駆的研究である。
本研究は,オープンソースLLMとともに最新の微調整手法を採用し,SLRプロセスの最終実行段階を自動化するための実用的で効率的な手法を実証した。
その結果, LLM応答の精度は高く, 既存のPRISMAコンフォーミングSLRの複製により検証された。
論文 参考訳(メタデータ) (2024-04-08T00:08:29Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs [49.32067576992511]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [56.5556523013924]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。