論文の概要: Instance-based Learning for Knowledge Base Completion
- arxiv url: http://arxiv.org/abs/2211.06807v1
- Date: Sun, 13 Nov 2022 04:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:28:04.248485
- Title: Instance-based Learning for Knowledge Base Completion
- Title(参考訳): 知識ベース補完のためのインスタンスベース学習
- Authors: Wanyun Cui, Xingran Chen
- Abstract要約: 我々は、知識ベース補完(KBC)のための新しい手法を提案する: インスタンスベース学習(IBL)。
我々は、プロトタイプをモデル化し、IBLと翻訳モデルを組み合わせるための理論を開発した。
様々なタスクの実験により、IBLモデルの有効性と解釈可能性が確認された。
- 参考スコア(独自算出の注目度): 20.02647320786556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new method for knowledge base completion (KBC):
instance-based learning (IBL). For example, to answer (Jill Biden, lived city,?
), instead of going directly to Washington D.C., our goal is to find Joe Biden,
who has the same lived city as Jill Biden. Through prototype entities, IBL
provides interpretability. We develop theories for modeling prototypes and
combining IBL with translational models. Experiments on various tasks confirmed
the IBL model's effectiveness and interpretability.
In addition, IBL shed light on the mechanism of rule-based KBC models.
Previous research has generally agreed that rule-based models provide rules
with semantically compatible premises and hypotheses. We challenge this view.
We begin by demonstrating that some logical rules represent {\it instance-based
equivalence} (i.e. prototypes) rather than semantic compatibility. These are
denoted as {\it IBL rules}. Surprisingly, despite occupying only a small
portion of the rule space, IBL rules outperform non-IBL rules in all four
benchmarks. We use a variety of experiments to demonstrate that rule-based
models work because they have the ability to represent instance-based
equivalence via IBL rules. The findings provide new insights of how rule-based
models work and how to interpret their rules.
- Abstract(参考訳): 本稿では,知識ベース補完(KBC)のための新しい手法として,インスタンスベース学習(IBL)を提案する。
例えば、答えるために(jill biden, living city,?)、直接ワシントンd.c.に行く代わりに、jill bidenと同じ居住都市を持つjoe bidenを見つけることが目標です。
プロトタイプエンティティを通じて、IBLは解釈可能性を提供する。
我々はプロトタイプをモデル化し, iblと翻訳モデルを組み合わせた理論を構築した。
様々なタスクの実験により、IBLモデルの有効性と解釈可能性が確認された。
さらに、IBLはルールベースのKBCモデルのメカニズムに光を当てた。
従来の研究は、ルールベースのモデルが意味論的に互換性のある前提と仮説のルールを提供するという点で概ね一致していた。
私たちはこの見方に挑戦する。
まず、いくつかの論理規則が意味的互換性ではなく、(プロトタイプのような)インスタンスベースの等価性を表すことを示す。
これらは {\it ibl rules} と表記される。
驚くべきことに、ルール領域のごく一部しか占めていないにもかかわらず、IBLルールは4つのベンチマークで非IBLルールを上回っている。
IBLルールを介してインスタンスベースの等価性を表現できるので、ルールベースのモデルが機能することを示すために、さまざまな実験を使用します。
この発見は、ルールベースのモデルがどのように機能し、ルールをどう解釈するかに関する新しい洞察を提供する。
関連論文リスト
- Logicbreaks: A Framework for Understanding Subversion of Rule-based Inference [20.057611113206324]
本研究では,大規模言語モデル (LLM) を早急に規定された規則に従う方法について検討する。
LLMはそのような規則を忠実に従えるが、悪意のあるプロンプトは理想化された理論的なモデルさえも誤解させる可能性があることを証明している。
論文 参考訳(メタデータ) (2024-06-21T19:18:16Z) - An Incremental MaxSAT-based Model to Learn Interpretable and Balanced Classification Rules [0.0]
本研究は,MaxSATに基づく解釈可能かつバランスの取れたルールを学習するための漸進的モデルを提案することを目的とする。
MaxSATをベースとしたアプローチは、IMLIと呼ばれ、データセットにモデルを漸進的に適用することで一連のルールを学習するパフォーマンスを向上させるテクニックを提供する。
論文 参考訳(メタデータ) (2024-03-25T04:43:47Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Can LLMs Follow Simple Rules? [28.73820874333199]
ルール追従言語評価シナリオ(ルール追従言語評価シナリオ、RuLES)は、大規模言語モデルにおけるルール追従能力を測定するためのフレームワークである。
RuLESは14の単純なテキストシナリオで構成され、そこではモデルがユーザと対話しながら様々なルールに従うように指示される。
現在のほとんどのモデルは、単純なテストケースであっても、シナリオルールに従うのに苦労しています。
論文 参考訳(メタデータ) (2023-11-06T08:50:29Z) - Inductive-bias Learning: Generating Code Models with Large Language
Model [0.0]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)と呼ばれる能力によって注目を集めている。
Inductive-Bias Learning (IBL)'と呼ばれる新しい学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T03:01:45Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - Active Learning++: Incorporating Annotator's Rationale using Local Model
Explanation [84.10721065676913]
アノテーションは、与えられたクエリの重要性に基づいて入力特徴をランク付けすることで、ラベルを選択するための根拠を提供することができる。
すべての委員会モデルを等しく重み付けして次の事例を選択する代わりに、アノテータのランクにより高い一致で委員会モデルにより高い重みを割り当てます。
このアプローチは、LIMEのような局所的な説明を生成するためにモデルに依存しない手法を用いて、任意の種類のMLモデルに適用できる。
論文 参考訳(メタデータ) (2020-09-06T08:07:33Z) - BoxE: A Box Embedding Model for Knowledge Base Completion [53.57588201197374]
知識ベース補完(KBC)は、知識ベース(KB)に存在する情報を活用することにより、行方不明な事実を自動的に推測することを目的とする。
既存の埋め込みモデルは、以下の制限の少なくとも1つに該当する。
BoxEは、エンティティをポイントとして、関係をハイパー矩形(またはボックス)の集合として埋め込む
論文 参考訳(メタデータ) (2020-07-13T09:40:49Z) - Buffered Asynchronous SGD for Byzantine Learning [30.29353076500323]
ビザンティン学習(Byzantine Learning、BL)は、障害や攻撃を伴う分散学習を指す。
BASGDは、サーバにインスタンスを格納することなく、異常な攻撃に抵抗できる最初のABLメソッドである。
BASGDmは非全能攻撃と全能攻撃の両方に抵抗できる。
論文 参考訳(メタデータ) (2020-03-02T14:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。