論文の概要: Instance-based Learning for Knowledge Base Completion
- arxiv url: http://arxiv.org/abs/2211.06807v1
- Date: Sun, 13 Nov 2022 04:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:28:04.248485
- Title: Instance-based Learning for Knowledge Base Completion
- Title(参考訳): 知識ベース補完のためのインスタンスベース学習
- Authors: Wanyun Cui, Xingran Chen
- Abstract要約: 我々は、知識ベース補完(KBC)のための新しい手法を提案する: インスタンスベース学習(IBL)。
我々は、プロトタイプをモデル化し、IBLと翻訳モデルを組み合わせるための理論を開発した。
様々なタスクの実験により、IBLモデルの有効性と解釈可能性が確認された。
- 参考スコア(独自算出の注目度): 20.02647320786556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new method for knowledge base completion (KBC):
instance-based learning (IBL). For example, to answer (Jill Biden, lived city,?
), instead of going directly to Washington D.C., our goal is to find Joe Biden,
who has the same lived city as Jill Biden. Through prototype entities, IBL
provides interpretability. We develop theories for modeling prototypes and
combining IBL with translational models. Experiments on various tasks confirmed
the IBL model's effectiveness and interpretability.
In addition, IBL shed light on the mechanism of rule-based KBC models.
Previous research has generally agreed that rule-based models provide rules
with semantically compatible premises and hypotheses. We challenge this view.
We begin by demonstrating that some logical rules represent {\it instance-based
equivalence} (i.e. prototypes) rather than semantic compatibility. These are
denoted as {\it IBL rules}. Surprisingly, despite occupying only a small
portion of the rule space, IBL rules outperform non-IBL rules in all four
benchmarks. We use a variety of experiments to demonstrate that rule-based
models work because they have the ability to represent instance-based
equivalence via IBL rules. The findings provide new insights of how rule-based
models work and how to interpret their rules.
- Abstract(参考訳): 本稿では,知識ベース補完(KBC)のための新しい手法として,インスタンスベース学習(IBL)を提案する。
例えば、答えるために(jill biden, living city,?)、直接ワシントンd.c.に行く代わりに、jill bidenと同じ居住都市を持つjoe bidenを見つけることが目標です。
プロトタイプエンティティを通じて、IBLは解釈可能性を提供する。
我々はプロトタイプをモデル化し, iblと翻訳モデルを組み合わせた理論を構築した。
様々なタスクの実験により、IBLモデルの有効性と解釈可能性が確認された。
さらに、IBLはルールベースのKBCモデルのメカニズムに光を当てた。
従来の研究は、ルールベースのモデルが意味論的に互換性のある前提と仮説のルールを提供するという点で概ね一致していた。
私たちはこの見方に挑戦する。
まず、いくつかの論理規則が意味的互換性ではなく、(プロトタイプのような)インスタンスベースの等価性を表すことを示す。
これらは {\it ibl rules} と表記される。
驚くべきことに、ルール領域のごく一部しか占めていないにもかかわらず、IBLルールは4つのベンチマークで非IBLルールを上回っている。
IBLルールを介してインスタンスベースの等価性を表現できるので、ルールベースのモデルが機能することを示すために、さまざまな実験を使用します。
この発見は、ルールベースのモデルがどのように機能し、ルールをどう解釈するかに関する新しい洞察を提供する。
関連論文リスト
- Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and
Improving LLMs [95.41575344721691]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Doing Experiments and Revising Rules with Natural Language and
Probabilistic Reasoning [7.11993673836973]
実験を行うことで、人間が隠れたルールを積極的に推論する方法のモデルを構築します。
これら3つの原則 – 明示的な仮説,確率的ルール,オンライン更新 – を組み合わせることで,禅道的なタスクにおける人的パフォーマンスが説明できることが分かりました。
論文 参考訳(メタデータ) (2024-02-08T19:57:29Z) - Can LLMs Follow Simple Rules? [28.73820874333199]
ルール追従言語評価シナリオ(ルール追従言語評価シナリオ、RuLES)は、大規模言語モデルにおけるルール追従能力を測定するためのフレームワークである。
RuLESは14の単純なテキストシナリオで構成され、そこではモデルがユーザと対話しながら様々なルールに従うように指示される。
現在のほとんどのモデルは、単純なテストケースであっても、シナリオルールに従うのに苦労しています。
論文 参考訳(メタデータ) (2023-11-06T08:50:29Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Inductive-bias Learning: Generating Code Models with Large Language
Model [0.0]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)と呼ばれる能力によって注目を集めている。
Inductive-Bias Learning (IBL)'と呼ばれる新しい学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T03:01:45Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - Active Learning++: Incorporating Annotator's Rationale using Local Model
Explanation [84.10721065676913]
アノテーションは、与えられたクエリの重要性に基づいて入力特徴をランク付けすることで、ラベルを選択するための根拠を提供することができる。
すべての委員会モデルを等しく重み付けして次の事例を選択する代わりに、アノテータのランクにより高い一致で委員会モデルにより高い重みを割り当てます。
このアプローチは、LIMEのような局所的な説明を生成するためにモデルに依存しない手法を用いて、任意の種類のMLモデルに適用できる。
論文 参考訳(メタデータ) (2020-09-06T08:07:33Z) - BoxE: A Box Embedding Model for Knowledge Base Completion [53.57588201197374]
知識ベース補完(KBC)は、知識ベース(KB)に存在する情報を活用することにより、行方不明な事実を自動的に推測することを目的とする。
既存の埋め込みモデルは、以下の制限の少なくとも1つに該当する。
BoxEは、エンティティをポイントとして、関係をハイパー矩形(またはボックス)の集合として埋め込む
論文 参考訳(メタデータ) (2020-07-13T09:40:49Z) - Buffered Asynchronous SGD for Byzantine Learning [30.29353076500323]
ビザンティン学習(Byzantine Learning、BL)は、障害や攻撃を伴う分散学習を指す。
BASGDは、サーバにインスタンスを格納することなく、異常な攻撃に抵抗できる最初のABLメソッドである。
BASGDmは非全能攻撃と全能攻撃の両方に抵抗できる。
論文 参考訳(メタデータ) (2020-03-02T14:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。