論文の概要: Neon: News Entity-Interaction Extraction for Enhanced Question Answering
- arxiv url: http://arxiv.org/abs/2411.12449v2
- Date: Wed, 20 Nov 2024 10:06:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 12:32:51.974006
- Title: Neon: News Entity-Interaction Extraction for Enhanced Question Answering
- Title(参考訳): Neon: 質問応答強化のためのニュースエンティティ-インタラクション抽出
- Authors: Sneha Singhania, Silviu Cucerzan, Allen Herring, Sujay Kumar Jauhar,
- Abstract要約: 本稿では,ニュース記事に記載されている新たなエンティティインタラクションの抽出を目的としたNEONフレームワークを提案する。
NEONは、そのようなインタラクションをキャプチャするエンティティ中心のタイムスタンプ知識グラフを構築する。
オープンな情報抽出(openIE)スタイルを大規模言語モデルに組み込むことによって,我々のフレームワークは革新的になる。
- 参考スコア(独自算出の注目度): 2.7661475645321256
- License:
- Abstract: Capturing fresh information in near real-time and using it to augment existing large language models (LLMs) is essential to generate up-to-date, grounded, and reliable output. This problem becomes particularly challenging when LLMs are used for informational tasks in rapidly evolving fields, such as Web search related to recent or unfolding events involving entities, where generating temporally relevant responses requires access to up-to-the-hour news sources. However, the information modeled by the parametric memory of LLMs is often outdated, and Web results from prototypical retrieval systems may fail to capture the latest relevant information and struggle to handle conflicting reports in evolving news. To address this challenge, we present the NEON framework, designed to extract emerging entity interactions -- such as events or activities -- as described in news articles. NEON constructs an entity-centric timestamped knowledge graph that captures such interactions, thereby facilitating enhanced QA capabilities related to news events. Our framework innovates by integrating open Information Extraction (openIE) style tuples into LLMs to enable in-context retrieval-augmented generation. This integration demonstrates substantial improvements in QA performance when tackling temporal, entity-centric search queries. Through NEON, LLMs can deliver more accurate, reliable, and up-to-date responses.
- Abstract(参考訳): 更新情報をほぼリアルタイムで取得し、既存の大規模言語モデル(LLM)を拡張するために使用することは、最新で基礎的で信頼性の高い出力を生成するために不可欠である。
LLMが急速に進化する分野における情報処理に使用される場合、特に問題となる。例えば、近年のエンティティに関連するWeb検索や、時間的に関係のある応答を生成する場合、最新のニュースソースにアクセスする必要がある。
しかし、LLMのパラメトリックメモリによってモデル化された情報は時代遅れであり、プロトタイプ検索システムによるWebの結果は最新の関連情報を捕捉できず、進化するニュースにおいて競合するレポートを扱うのに苦労する可能性がある。
この課題に対処するため,ニュース記事に記載されたイベントやアクティビティなど,新たなエンティティインタラクションの抽出を目的としたNEONフレームワークを提案する。
NEONは、そのようなインタラクションをキャプチャするエンティティ中心のタイムスタンプ知識グラフを構築し、ニュースイベントに関連するQA機能を強化する。
オープンなインフォメーション抽出(openIE)スタイルのタプルをLLMに組み込むことで,コンテクスト内検索拡張生成を実現する。
この統合は、時間的、エンティティ中心の検索クエリに対処する際のQAパフォーマンスを大幅に改善する。
NEONを通じて、LLMはより正確で信頼性があり、最新のレスポンスを提供することができる。
関連論文リスト
- DynamicER: Resolving Emerging Mentions to Dynamic Entities for RAG [40.40642344216866]
動的エンティティへの新たな言及の解決を目的とした新しいタスクを導入する。
私たちのベンチマークには、動的エンティティ参照解決とエンティティ中心の知識集約型QAタスクが含まれています。
本稿では,進化する実体と出現する言及の時間的ダイナミクスを効果的に管理する,連続的適応型時間分割クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T10:57:12Z) - Retriever-and-Memory: Towards Adaptive Note-Enhanced Retrieval-Augmented Generation [72.70046559930555]
本稿では,複雑なQAタスクに対する適応ノート拡張RAG(Adaptive Note-Enhanced RAG)と呼ばれる汎用RAGアプローチを提案する。
具体的には、Adaptive-Noteは、知識の成長に関する包括的な視点を導入し、ノート形式で新しい情報を反復的に収集する。
さらに,適切な知識探索を促進するために,適応的な音符ベースの停止探索戦略を用いて,「何を検索し,いつ停止するか」を判断する。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - Towards Enhancing Linked Data Retrieval in Conversational UIs using Large Language Models [1.3980986259786221]
本稿では,既存のシステムにおけるLarge Language Models(LLM)の統合について検討する。
LLMの高度な自然言語理解機能を活用することで、Webシステム内のRDFエンティティ抽出を改善する。
本手法の評価は,ユーザクエリに対するシステム表現性と応答精度の顕著な向上を示す。
論文 参考訳(メタデータ) (2024-09-24T16:31:33Z) - How Easily do Irrelevant Inputs Skew the Responses of Large Language Models? [35.78256134989427]
大きな言語モデル(LLM)は多くの知識集約的なタスクを達成するための拡張された能力を示す。
現在の検索システムに固有の欠陥があるため、検索する上位のパスには無関係な情報が存在する可能性がある。
我々は,意味的に無関係で,部分的に関連があり,質問に関連するような,高品質な無関係な情報を構築するための枠組みを導入する。
論文 参考訳(メタデータ) (2024-04-04T08:52:30Z) - Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Enhancing Retrieval-Augmented Large Language Models with Iterative
Retrieval-Generation Synergy [164.83371924650294]
検索と生成を反復的に同期させるIter-RetGenと呼ばれる手法により,高い性能が得られることを示す。
モデル出力は、タスクを完了するために必要なものを示し、より関連する知識を取得するための情報的コンテキストを提供する。
Iter-RetGenプロセスは、すべての知識を全体として取得し、構造的な制約なしに生成時の柔軟性をほとんど保持します。
論文 参考訳(メタデータ) (2023-05-24T16:17:36Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。