論文の概要: An In-Context Schema Understanding Method for Knowledge Base Question
Answering
- arxiv url: http://arxiv.org/abs/2310.14174v2
- Date: Sat, 10 Feb 2024 06:18:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 21:53:13.021357
- Title: An In-Context Schema Understanding Method for Knowledge Base Question
Answering
- Title(参考訳): 知識ベース質問応答のための文脈内スキーマ理解手法
- Authors: Yantao Liu, Zixuan Li, Xiaolong Jin, Yucan Guo, Long Bai, Saiping
Guan, Jiafeng Guo and Xueqi Cheng
- Abstract要約: 大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
- 参考スコア(独自算出の注目度): 70.87993081445127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Knowledge Base Question Answering (KBQA) task aims to answer natural
language questions based on a given knowledge base. Recently, Large Language
Models (LLMs) have shown strong capabilities in language understanding and can
be used to solve this task. In doing so, a major challenge for LLMs is to
overcome the immensity and heterogeneity of knowledge base schemas.Existing
methods bypass this challenge by initially employing LLMs to generate drafts of
logic forms without schema-specific details.Then, an extra module is used to
inject schema information to these drafts.In contrast, in this paper, we
propose a simple In-Context Schema Understanding (ICSU) method that enables
LLMs to directly understand schemas by leveraging in-context learning.
Specifically, ICSU provides schema information to LLMs using schema-related
annotated examples. We investigate three example retrieval strategies based on
raw questions, anonymized questions, and generated SPARQL queries. Experimental
results show that ICSU demonstrates competitive performance compared to
baseline methods on both the KQA Pro and WebQSP datasets.
- Abstract(参考訳): 知識ベース質問回答(KBQA)タスクは、与えられた知識ベースに基づいて自然言語質問に回答することを目的としている。
近年,Large Language Models (LLM) は言語理解において強力な能力を示しており,この課題の解決に利用することができる。
そこで, LLMの課題は, 知識ベーススキーマの不均一性と不均一性を克服することであり, 既存の手法は, LLMを当初, スキーマ固有の詳細を伴わずに論理形式のドラフトを生成することで, この課題を回避し, これらのドラフトにスキーマ情報を注入するために余分なモジュールを用いる。これに対し, 本論文では, LLMが文脈内学習を利用してスキーマを直接理解できるようにするシンプルなインコンテキストスキーマ理解法を提案する。
具体的には、ICSUはスキーマ関連アノテーションの例を使ってLCMにスキーマ情報を提供する。
本稿では、生の質問、匿名の質問、SPARQLクエリ生成に基づく3つのサンプル検索戦略について検討する。
実験の結果,ICSU は KQA Pro と WebQSP の両方のデータセットのベースライン手法と比較して,競合性能を示すことがわかった。
関連論文リスト
- RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - SocialGPT: Prompting LLMs for Social Relation Reasoning via Greedy Segment Optimization [70.11167263638562]
社会的関係推論は、友人、配偶者、同僚などの関係カテゴリを画像から識別することを目的としている。
まず、VFM(Vision Foundation Models)の知覚能力と、モジュラーフレームワーク内でのLLM(Large Language Models)の推論能力を組み合わせた、シンプルだが巧妙な名前のフレームワークを提示する。
論文 参考訳(メタデータ) (2024-10-28T18:10:26Z) - Assessing SPARQL capabilities of Large Language Models [0.0]
我々は、SPARQLで動作するLarge Language Modelsのアウトオブザボックス機能の測定に重点を置いています。
LLM-KG-Benchフレームワークにベンチマークタスクを実装し,自動実行と評価を行う。
この結果から,SPARQL SELECTクエリの処理はLLMでは依然として困難であることが示唆された。
論文 参考訳(メタデータ) (2024-09-09T08:29:39Z) - HOLMES: Hyper-Relational Knowledge Graphs for Multi-hop Question Answering using LLMs [9.559336828884808]
大規模言語モデル(LLM)は、単純な(シングルホップ)質問に答えるには適しています。
質問の複雑さが増すにつれて、LLMの性能は低下する。
最近の手法では、構造化知識三重項を原文に組み込むことで、この負担を軽減しようとしている。
本稿では,知識グラフ(KG)を用いてコンテキスト認識し,クエリ関連情報を含むように蒸留する手法を提案する。
論文 参考訳(メタデータ) (2024-06-10T05:22:49Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question Answering with Large Language Models [7.399563588835834]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - keqing: knowledge-based question answering is a nature chain-of-thought
mentor of LLM [27.76205400533089]
大規模言語モデル(LLM)は様々な自然言語処理(NLP)タスク、特に質問応答において顕著な性能を示した。
本稿では,知識グラフ上の質問関連構造化情報を取得するために,ChatGPTなどのLLMを支援する新しいフレームワークを提案する。
KBQAデータセットの実験結果から,Keqingは競合性能を達成でき,各質問に答える論理を説明できることがわかった。
論文 参考訳(メタデータ) (2023-12-31T08:39:04Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - A Simple Baseline for Knowledge-Based Visual Question Answering [78.00758742784532]
本稿では,知識に基づく視覚質問応答(KB-VQA)の問題について述べる。
本論文の主な貢献は,よりシンプルで容易に再現可能なパイプラインを提案することである。
近年のアプローチとは対照的に,本手法はトレーニングフリーであり,外部データベースやAPIへのアクセスを必要とせず,OK-VQAおよびA-OK-VQAデータセット上で最先端の精度を実現する。
論文 参考訳(メタデータ) (2023-10-20T15:08:17Z) - Code-Style In-Context Learning for Knowledge-Based Question Answering [34.821095476923745]
知識に基づく質問応答(KBQA)のためのコードスタイルのインコンテキスト学習手法を提案する。
3つの主流データセットに対する実験結果から,本手法は論理形式を生成する際のフォーマットエラー問題を劇的に軽減した。
論文 参考訳(メタデータ) (2023-09-09T06:27:00Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。