論文の概要: Chatting with Papers: A Hybrid Approach Using LLMs and Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2505.11633v1
- Date: Fri, 16 May 2025 18:51:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.752103
- Title: Chatting with Papers: A Hybrid Approach Using LLMs and Knowledge Graphs
- Title(参考訳): 紙によるチャット: LLMと知識グラフを用いたハイブリッドアプローチ
- Authors: Vyacheslav Tykhonov, Han Yang, Philipp Mayr, Jetze Touber, Andrea Scharnhorst,
- Abstract要約: このデモでは、大規模な言語モデルと知識グラフを組み合わせて、コレクションによるナビゲーションをサポートする新しいワークフローのtextitGhostWriterが報告されている。
textitGhostWriterは、バックエンドの textitEverythingDataに基づいて、コレクションと'クエリとチャット'が可能なインターフェイスを提供する。
- 参考スコア(独自算出の注目度): 3.68389405018277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This demo paper reports on a new workflow \textit{GhostWriter} that combines the use of Large Language Models and Knowledge Graphs (semantic artifacts) to support navigation through collections. Situated in the research area of Retrieval Augmented Generation, this specific workflow details the creation of local and adaptable chatbots. Based on the tool-suite \textit{EverythingData} at the backend, \textit{GhostWriter} provides an interface that enables querying and ``chatting'' with a collection. Applied iteratively, the workflow supports the information needs of researchers when interacting with a collection of papers, whether it be to gain an overview, to learn more about a specific concept and its context, and helps the researcher ultimately to refine their research question in a controlled way. We demonstrate the workflow for a collection of articles from the \textit{method data analysis} journal published by GESIS -- Leibniz-Institute for the Social Sciences. We also point to further application areas.
- Abstract(参考訳): このデモでは,大規模な言語モデルとナレッジグラフ(セマンティックアーティファクト)を組み合わせて,コレクションを通じたナビゲーションをサポートする,新たなワークフローである‘textit{GhostWriter’を報告している。
Retrieval Augmented Generationの研究領域に位置するこのワークフローは、ローカルで適応可能なチャットボットの作成について詳述している。
バックエンドにあるツール-suite \textit{EverythingData} に基づいて、 \textit{GhostWriter} は、コレクションのクエリと ``chatting'' を可能にするインターフェイスを提供する。
反復的に適用されたこのワークフローは、論文の集合体と相互作用する際の研究者の情報要求をサポートし、概観を得るか、特定の概念とその文脈についてより深く学ぶか、究極的には研究問題を制御された方法で洗練するのに役立つ。
GESISが発行した『textit{method data analysis} Journal』の論文集(Leibniz-Institute for the Social Sciences)のワークフローを実演する。
さらに応用分野についても指摘します。
関連論文リスト
- The State and Fate of Summarization Datasets: A Survey [16.00055700916453]
100以上の言語で133のデータセットにまたがる大規模な作業を調査します。
低リソース言語でアクセス可能な高品質なデータセットが欠如しているなど、重要な観察を行います。
論文 参考訳(メタデータ) (2024-11-07T10:11:38Z) - Capturing research literature attitude towards Sustainable Development Goals: an LLM-based topic modeling approach [0.7806050661713976]
持続可能な開発目標は2015年に国連によって策定され、2030年までにこれらの世界的な課題に対処した。
自然言語処理技術は、研究文献の中のSDGに関する議論を明らかにするのに役立つ。
我々は,Scopusデータベースからコンテンツを取り出し,SDGの5つのグループ専用のデータセットを作成する,完全に自動化されたパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:37:23Z) - generAItor: Tree-in-the-Loop Text Generation for Language Model
Explainability and Adaptation [28.715001906405362]
大規模言語モデル(LLM)は、自動補完、補助的な書き込み、チャットベースのテキスト生成など、様々な下流タスクに広くデプロイされている。
本稿では,ビーム探索ツリーの視覚的表現を解析,説明,適応する中心的な要素とする,ループ内ツリーのアプローチを提案することで,この欠点に対処する。
視覚解析技術であるGenerAItorを,タスク固有のウィジェットで中央ビーム探索木を拡大し,ターゲットとした可視化とインタラクションの可能性を提供する。
論文 参考訳(メタデータ) (2024-03-12T13:09:15Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Open-Vocabulary Camouflaged Object Segmentation [66.94945066779988]
OVCOS(Open-vocabulary camouflaged Object segmentation)を導入した。
我々は11,483個の手選択画像とそれに対応するオブジェクトクラスを含む大規模複合シーンデータセット(textbfOVCamo)を構築した。
クラスセマンティック知識の指導とエッジ情報と深度情報からの視覚構造的手がかりの補足を統合することにより、提案手法は効率よくカモフラージュされたオブジェクトを捕捉できる。
論文 参考訳(メタデータ) (2023-11-19T06:00:39Z) - AI Literature Review Suite [0.0]
総合的な文献レビューを提供するために、いくつかの機能を統合するAI Literature Review Suiteを紹介します。
このツールは、オープンアクセス科学、大規模言語モデル(LLM)、自然言語処理の力を活用して、PDFファイルの検索、ダウンロード、整理を可能にする。
このスイートには、組織、対話、クエリのための統合プログラムや、文献レビューの要約も備えている。
論文 参考訳(メタデータ) (2023-07-27T17:30:31Z) - GAIA Search: Hugging Face and Pyserini Interoperability for NLP Training
Data Exploration [97.68234051078997]
我々はPyseriniを、オープンソースのAIライブラリとアーティファクトのHugging Faceエコシステムに統合する方法について論じる。
Jupyter NotebookベースのウォークスルーがGitHubで公開されている。
GAIA Search - 前述した原則に従って構築された検索エンジンで、人気の高い4つの大規模テキストコレクションへのアクセスを提供する。
論文 参考訳(メタデータ) (2023-06-02T12:09:59Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - iFacetSum: Coreference-based Interactive Faceted Summarization for
Multi-Document Exploration [63.272359227081836]
iFacetSumは、インタラクティブな要約と顔検索を統合している。
微粒なファセットは、クロスドキュメントのコア参照パイプラインに基づいて自動的に生成される。
論文 参考訳(メタデータ) (2021-09-23T20:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。