論文の概要: Non-Parametric Learning of Gaifman Models
- arxiv url: http://arxiv.org/abs/2001.00528v2
- Date: Wed, 15 Jan 2020 19:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 03:55:10.714283
- Title: Non-Parametric Learning of Gaifman Models
- Title(参考訳): ゲイフマンモデルの非パラメトリック学習
- Authors: Devendra Singh Dhami, Siwen Yan, Gautam Kunapuli, Sriraam Natarajan
- Abstract要約: 本稿では,関係木距離を用いて,これらの関係特徴をゲイフマンモデルで学習する手法を提案する。
実データ集合に対する実証的な評価は、古典的なルール学習よりも、我々のアプローチの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 13.514201425037955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of structure learning for Gaifman models and learn
relational features that can be used to derive feature representations from a
knowledge base. These relational features are first-order rules that are then
partially grounded and counted over local neighborhoods of a Gaifman model to
obtain the feature representations. We propose a method for learning these
relational features for a Gaifman model by using relational tree distances. Our
empirical evaluation on real data sets demonstrates the superiority of our
approach over classical rule-learning.
- Abstract(参考訳): 我々は、gaifmanモデルの構造学習の問題を検討し、知識ベースから特徴表現を導出するために使用できる関係的特徴を学習する。
これらの関係的特徴は一階法則であり、その特徴表現を得るためにゲイフマンモデルの局所的近傍に部分的に接して数えられる。
本稿では,関係木距離を用いたgaifmanモデルにおける関係特徴の学習手法を提案する。
実データ集合に対する経験的評価は、古典的ルール学習よりも、我々のアプローチが優れていることを示している。
関連論文リスト
- Leveraging Hierarchical Taxonomies in Prompt-based Continual Learning [41.13568563835089]
深層学習モデルの学習において,情報の整理・接続という人間の習慣を適用することが効果的な戦略として有効であることがわかった。
本稿では,モデルがより挑戦的な知識領域に集中するように促す新たな正規化損失関数を提案する。
論文 参考訳(メタデータ) (2024-10-06T01:30:40Z) - Neural Eigenfunctions Are Structured Representation Learners [93.53445940137618]
本稿ではニューラル固有写像という,構造化された適応長の深部表現を提案する。
本稿では,データ拡張設定における正の関係から固有関数が導出される場合,NeuralEFを適用することで目的関数が得られることを示す。
画像検索システムにおいて,適応長符号のような表現を用いることを実証する。
論文 参考訳(メタデータ) (2022-10-23T07:17:55Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - It Takes Two Flints to Make a Fire: Multitask Learning of Neural
Relation and Explanation Classifiers [40.666590079580544]
一般化と説明可能性の間の緊張を緩和する関係抽出のための説明可能なアプローチを提案する。
提案手法では,関係抽出のための分類器を共同で訓練するマルチタスク学習アーキテクチャを用いる。
このアプローチにグローバルな説明をもたらすために、モデル出力をルールに変換する。
論文 参考訳(メタデータ) (2022-04-25T03:53:12Z) - A Relational Model for One-Shot Classification [80.77724423309184]
インダクティブバイアスを組み込んだディープラーニングモデルは,広範なデータ拡張に頼ることなく,サンプル効率のよい学習にメリットをもたらすことを示す。
提案するワンショット分類モデルは,一対の入力を局所的および対的注意の形で関係マッチングする。
論文 参考訳(メタデータ) (2021-11-08T07:53:12Z) - Generative Relation Linking for Question Answering over Knowledge Bases [12.778133758613773]
そこで本稿では, フレーミングを生成問題とする関係リンク手法を提案する。
このようなシーケンス・ツー・シーケンス・モデルを拡張して,対象とする知識ベースから構造化データを注入する。
我々は、議論-関係ペアのリストからなる構造化された出力を生成するためにモデルを訓練し、知識検証のステップを可能にする。
論文 参考訳(メタデータ) (2021-08-16T20:33:43Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - A Simple Approach to Case-Based Reasoning in Knowledge Bases [56.661396189466664]
我々は,古典人工知能(AI)におけるケースベース推論を想起させる,アンフノトレーニングを必要とする知識グラフ(KG)における推論に対する驚くほど単純かつ正確なアプローチを提案する。
ソースエンティティとバイナリ関係が与えられたターゲットエンティティを見つけるタスクを考えてみましょう。
我々の非パラメトリックなアプローチは、与えられた関係を通して類似したソースエンティティを接続する複数のテキストトグラフパスパターンを見つけることによって、クエリ毎にクレープな論理ルールを導出します。
論文 参考訳(メタデータ) (2020-06-25T06:28:09Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Non-Parametric Learning of Lifted Restricted Boltzmann Machines [12.38691838326166]
我々は、リレーショナルデータが存在する場合に制限されたボルツマンマシンを識別的に学習する問題を考察する。
規則学習者(構造学習)と重み学習者(パラメータ学習)を逐次採用する従来の手法とは異なり,両手法を同時に行う勾配型アプローチを開発する。
論文 参考訳(メタデータ) (2020-01-09T05:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。