論文の概要: LitLLM: A Toolkit for Scientific Literature Review
- arxiv url: http://arxiv.org/abs/2402.01788v1
- Date: Fri, 2 Feb 2024 02:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 02:06:32.543201
- Title: LitLLM: A Toolkit for Scientific Literature Review
- Title(参考訳): LitLLM: 科学文献レビューのためのツールキット
- Authors: Shubham Agarwal, Issam H. Laradji, Laurent Charlin, Christopher Pal
- Abstract要約: Toolkit は Retrieval Augmented Generation (RAG) の原則に基づいている。
システムはまずWeb検索を開始し、関連書類を検索する。
第2に、ユーザが提供する抽象化に基づいて、検索した論文を再ランクする。
第3に、再ランクされた結果と要約に基づいて、関連する作業部を生成する。
- 参考スコア(独自算出の注目度): 15.080020634480272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conducting literature reviews for scientific papers is essential for
understanding research, its limitations, and building on existing work. It is a
tedious task which makes an automatic literature review generator appealing.
Unfortunately, many existing works that generate such reviews using Large
Language Models (LLMs) have significant limitations. They tend to
hallucinate-generate non-actual information-and ignore the latest research they
have not been trained on. To address these limitations, we propose a toolkit
that operates on Retrieval Augmented Generation (RAG) principles, specialized
prompting and instructing techniques with the help of LLMs. Our system first
initiates a web search to retrieve relevant papers by summarizing user-provided
abstracts into keywords using an off-the-shelf LLM. Authors can enhance the
search by supplementing it with relevant papers or keywords, contributing to a
tailored retrieval process. Second, the system re-ranks the retrieved papers
based on the user-provided abstract. Finally, the related work section is
generated based on the re-ranked results and the abstract. There is a
substantial reduction in time and effort for literature review compared to
traditional methods, establishing our toolkit as an efficient alternative. Our
open-source toolkit is accessible at https://github.com/shubhamagarwal92/LitLLM
and Huggingface space (https://huggingface.co/spaces/shubhamagarwal92/LitLLM)
with the video demo at https://youtu.be/E2ggOZBAFw0.
- Abstract(参考訳): 科学論文に対する文献レビューの実施は、研究の理解、限界、既存の研究に基づく構築に不可欠である。
自動文献レビュージェネレータをアピールするのは面倒な作業である。
残念ながら、LLM(Large Language Models)を使ってこのようなレビューを生成する既存の作品には、大きな制限がある。
彼らは非現実的な情報を幻覚的に表現し、訓練されていない最新の研究を無視する傾向がある。
これらの制約に対処するために,LLMの助けを借りて,特殊的なプロンプトと指導を行うRAG(Retrieval Augmented Generation)の原理に基づくツールキットを提案する。
提案システムでは,まず,既製のLLMを用いてユーザが提供する抽象文をキーワードに要約することで,関連論文の検索を開始する。
著者は、関連する論文やキーワードを補足することで検索を強化し、適切な検索プロセスに寄与することができる。
第2に、ユーザが提供する抽象化に基づいて、検索した論文を再ランクする。
そして、再ランクされた結果と要約とに基づいて関連作業部を生成する。
従来の方法に比べて,文献レビューに要する時間と労力は大幅に削減され,ツールキットを効率的な代替手段として確立しています。
私たちのオープンソースツールキットはhttps://github.com/shubhamagarwal92/LitLLMとHuggingfaceスペース(https://huggingface.co/spaces/shubhamagarwal92/LitLLM)で利用できます。
関連論文リスト
- Unsupervised Information Refinement Training of Large Language Models
for Retrieval-Augmented Generation [133.52393894760107]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - CRUISE-Screening: Living Literature Reviews Toolbox [8.292338880619061]
CRUISE-Screeningは、生物文学レビューを行うためのウェブベースのアプリケーションである。
APIを通じて複数の検索エンジンに接続しており、定期的に検索結果を更新することができる。
論文 参考訳(メタデータ) (2023-09-04T15:58:43Z) - RRAML: Reinforced Retrieval Augmented Machine Learning [10.94680155282906]
我々はReinforced Retrieval Augmented Machine Learning (RRAML)と呼ばれる新しいフレームワークを提案する。
RRAMLは、大規模な言語モデルの推論機能と、巨大なユーザが提供するデータベースから目的に構築された検索者によって取得された情報を統合する。
この論文で概説された研究課題は、AIの分野に大きな影響を与える可能性があると信じている。
論文 参考訳(メタデータ) (2023-07-24T13:51:19Z) - Calculating Originality of LLM Assisted Source Code [0.0]
本稿では,学生がソースコードを書く際の本来の取り組み(およびLLMの貢献)を決定するニューラルネットワークベースのツールを提案する。
我々のツールは、コルモゴロフ複雑性のような最小記述長測度によって動機付けられている。
論文 参考訳(メタデータ) (2023-07-10T11:30:46Z) - SciLit: A Platform for Joint Scientific Literature Discovery,
Summarization and Citation Generation [11.186252009101077]
本稿では,関連論文を自動的に推薦し,ハイライトを抽出するパイプラインSciLitを提案し,論文の引用として参照文を提案する。
SciLitは、2段階の事前フェッチと再ランクの文献検索システムを使用して、数億の論文の大規模なデータベースから論文を効率的に推奨する。
論文 参考訳(メタデータ) (2023-06-06T09:34:45Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Enabling Large Language Models to Generate Text with Citations [37.64884969997378]
大規模言語モデル (LLM) は情報検索のツールとして広く使われている。
我々の目的は、LLMが引用文を生成できるようにし、その事実の正しさと妥当性を向上させることである。
自動LLMのCitation Evaluationのための最初のベンチマークであるALCEを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:53:49Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Active Retrieval Augmented Generation [123.68874416084499]
外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
論文 参考訳(メタデータ) (2023-05-11T17:13:40Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。