論文の概要: Knowledge Extraction on Semi-Structured Content: Does It Remain Relevant for Question Answering in the Era of LLMs?
- arxiv url: http://arxiv.org/abs/2509.25107v1
- Date: Mon, 29 Sep 2025 17:39:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.171925
- Title: Knowledge Extraction on Semi-Structured Content: Does It Remain Relevant for Question Answering in the Era of LLMs?
- Title(参考訳): 半構造化コンテンツに関する知識抽出:LLM時代における質問応答の関連性は残されているか?
- Authors: Kai Sun, Yin Huang, Srishti Mehra, Mohammad Kachuee, Xilun Chen, Renjie Tao, Zhaojiang Lin, Andrea Jessee, Nirav Shah, Alex Betty, Yue Liu, Anuj Kumar, Wen-tau Yih, Xin Luna Dong,
- Abstract要約: 大規模言語モデル(LLM)は、半構造化コンテンツに対するWebベースの質問回答システム(QA)を大幅に進歩させた。
本稿では,既存のベンチマークを知識抽出アノテーションで拡張することにより,新たなパラダイムにおける三重抽出の価値について検討する。
- 参考スコア(独自算出の注目度): 39.389980758172264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of Large Language Models (LLMs) has significantly advanced web-based Question Answering (QA) systems over semi-structured content, raising questions about the continued utility of knowledge extraction for question answering. This paper investigates the value of triple extraction in this new paradigm by extending an existing benchmark with knowledge extraction annotations and evaluating commercial and open-source LLMs of varying sizes. Our results show that web-scale knowledge extraction remains a challenging task for LLMs. Despite achieving high QA accuracy, LLMs can still benefit from knowledge extraction, through augmentation with extracted triples and multi-task learning. These findings provide insights into the evolving role of knowledge triple extraction in web-based QA and highlight strategies for maximizing LLM effectiveness across different model sizes and resource settings.
- Abstract(参考訳): LLM(Large Language Models)の出現により、半構造化コンテンツに対するWebベースの質問回答システム(QA)が大幅に進歩し、質問応答のための知識抽出の継続的な有用性に関する疑問が提起された。
本稿では,既存のベンチマークを知識抽出アノテーションで拡張し,様々な規模の商用およびオープンソース LLM を評価することで,新たなパラダイムにおける三重抽出の価値を考察する。
この結果から,LLM にとって Web スケールの知識抽出は依然として困難な課題であることが示唆された。
高いQA精度にもかかわらず、LLMは、抽出されたトリプルとマルチタスク学習による強化を通じて、知識抽出の恩恵を受けることができる。
これらの知見は、WebベースのQAにおける知識三重抽出の役割の進化に関する洞察を与え、異なるモデルサイズとリソース設定でLLMの有効性を最大化するための戦略を強調している。
関連論文リスト
- Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - KnowledgeNavigator: Leveraging Large Language Models for Enhanced
Reasoning over Knowledge Graph [11.808990571175269]
大規模言語モデル(LLM)は、その強力な自然言語理解とゼロショット能力によって、様々な下流タスクにおいて優れたパフォーマンスを達成しているが、LLMは依然として知識制限に悩まされている。
本稿では,知識グラフから外部知識を効率的に正確に検索し,これらの課題に対処する新しいフレームワークであるKnowledgeNavigatorを提案する。
我々は,複数のKGQAベンチマーク上でKnowledgeNavigatorを評価し,そのフレームワークの有効性と一般化を実証した。
論文 参考訳(メタデータ) (2023-12-26T04:22:56Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。