論文の概要: ALIST: Associative Logic for Inference, Storage and Transfer. A Lingua
Franca for Inference on the Web
- arxiv url: http://arxiv.org/abs/2303.06691v1
- Date: Sun, 12 Mar 2023 15:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:28:37.040718
- Title: ALIST: Associative Logic for Inference, Storage and Transfer. A Lingua
Franca for Inference on the Web
- Title(参考訳): ALIST: 推論、ストレージ、転送のための連想論理。
Web上の推論のためのLingua Franca
- Authors: Kwabena Nuamah and Alan Bundy
- Abstract要約: 知識グラフの特定のクエリ言語からクエリの表現を抽象化する形式主義。
多様な知識ソース上でデータと関数(操作)を動的にキュレートする表現。
表現形式主義の多様性を表現するためのアリストの表現力の実証。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in support for constructing knowledge graphs have led to
a rapid rise in their creation both on the Web and within organisations. Added
to existing sources of data, including relational databases, APIs, etc., there
is a strong demand for techniques to query these diverse sources of knowledge.
While formal query languages, such as SPARQL, exist for querying some knowledge
graphs, users are required to know which knowledge graphs they need to query
and the unique resource identifiers of the resources they need. Although
alternative techniques in neural information retrieval embed the content of
knowledge graphs in vector spaces, they fail to provide the representation and
query expressivity needed (e.g. inability to handle non-trivial aggregation
functions such as regression). We believe that a lingua franca, i.e. a
formalism, that enables such representational flexibility will increase the
ability of intelligent automated agents to combine diverse data sources by
inference.
Our work proposes a flexible representation (alists) to support intelligent
federated querying of diverse knowledge sources. Our contribution includes (1)
a formalism that abstracts the representation of queries from the specific
query language of a knowledge graph; (2) a representation to dynamically curate
data and functions (operations) to perform non-trivial inference over diverse
knowledge sources; (3) a demonstration of the expressiveness of alists to
represent the diversity of representational formalisms, including SPARQL
queries, and more generally first-order logic expressions.
- Abstract(参考訳): 知識グラフの構築を支援するための最近の開発は、Webと組織の両方で、その作成が急速に増加した。
リレーショナルデータベース、APIなど、既存のデータソースに加え、これらの多様な知識ソースをクエリする技術に対する強い需要があります。
SPARQLのような形式的なクエリ言語は知識グラフを問合せするために存在するが、どの知識グラフを問合せする必要があるか、必要なリソースのユニークなリソース識別子を知る必要がある。
神経情報検索の代替手法は、知識グラフの内容をベクトル空間に埋め込むが、表現とクエリ表現性(回帰のような非自明な集約関数を扱うことができないなど)は提供できない。
このような表現の柔軟性を実現する言語フランカ、すなわち形式主義は、インテリジェントな自動エージェントが推論によって多様なデータソースを結合する能力を高めると信じている。
本研究は,多様な知識ソースのインテリジェントなフェデレーションクエリをサポートするためのフレキシブル表現(alist)を提案する。
本研究は,(1)知識グラフの特定の問合せ言語からクエリの表現を抽象化する形式化,(2)多様な知識ソースに対して非自明な推論を行うために動的にデータと関数(操作)をキュレートする表現,(3)sparqlクエリを含む表現形式化の多様性を表現する alists の表現性の実証,およびより一般的な一階述語論理表現を含む。
関連論文リスト
- A large collection of bioinformatics question-query pairs over federated knowledge graphs: methodology and applications [0.0838491111002084]
本稿では,生物情報学の知識グラフを用いた人文自然言語質問とそれに対応するSPARQLクエリについて紹介する。
既存の標準に基づいて,サンプルを最小限のメタデータで一様に表現する手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T13:08:07Z) - Contri(e)ve: Context + Retrieve for Scholarly Question Answering [0.0]
本稿では,オープンソースのLarge Language Model (LLM): Scholarly-QALDデータセット用のLlama3.1を提案する。
まず、異なる構造化データソースと非構造化データソースから質問に関連するコンテキストを抽出する。
第2に,LLMの情報検索性能を向上させるために,プロンプトエンジニアリングを実装した。
論文 参考訳(メタデータ) (2024-09-13T17:38:47Z) - GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment via Neighborhood Partitioning and Generative Subgraph Encoding [39.67113788660731]
グラフ対応LAnguage Models (GLaM) を開発するためのフレームワークを紹介する。
特定のグラフに基づく知識でモデルを構築することは、構造に基づく推論のためのモデルの能力を拡張することを実証する。
論文 参考訳(メタデータ) (2024-02-09T19:53:29Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Hi-ArG: Exploring the Integration of Hierarchical Argumentation Graphs
in Language Pretraining [62.069374456021016]
議論を整理する新しい構造である階層的議論グラフ(Hi-ArG)を提案する。
また,テキストグラフマルチモーダルモデルであるGreaseArGや,グラフ情報を付加した新たな事前学習フレームワークなど,Hi-ArGを活用するための2つのアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-01T19:03:38Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Taxonomy Enrichment with Text and Graph Vector Representations [61.814256012166794]
我々は,既存の分類学に新たな語を加えることを目的とした分類学の豊かさの問題に対処する。
我々は,この課題に対して,少ない労力で高い結果を得られる新しい手法を提案する。
我々は、異なるデータセットにわたる最先端の結果を達成し、ミスの詳細なエラー分析を提供する。
論文 参考訳(メタデータ) (2022-01-21T09:01:12Z) - BERTese: Learning to Speak to BERT [50.76152500085082]
本論文では,より良い知識抽出に向けて直接最適化されたパラフレーズクエリ"BERTese"に自動書き換える手法を提案する。
私たちのアプローチが競合するベースラインを上回ることを実証的に示し、複雑なパイプラインの必要性を回避します。
論文 参考訳(メタデータ) (2021-03-09T10:17:22Z) - Dependently Typed Knowledge Graphs [4.157595789003928]
本稿では,標準セマンティックWeb技術(RDFとそのクエリ言語SPARQL)を依存型理論と統一的に再現する方法を示す。
知識グラフの基本機能を提供するのに加えて、依存型はエンティティとクエリの両方をエンコードする表現力を与えます。
論文 参考訳(メタデータ) (2020-03-08T14:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。