論文の概要: Neural Class Expression Synthesis
- arxiv url: http://arxiv.org/abs/2111.08486v2
- Date: Thu, 18 Nov 2021 09:31:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 12:59:47.705754
- Title: Neural Class Expression Synthesis
- Title(参考訳): 神経クラス発現合成
- Authors: N'Dah Jean Kouagou, Stefan Heindorf, Caglar Demir, Axel-Cyrille Ngonga
Ngomo
- Abstract要約: クラス表現学習は説明可能な教師あり機械学習の一分野である。
記述論理における表現学習のための既存のアプローチは、探索アルゴリズムやハードルールベースである。
そこで我々は,合成手法を考案した新しいアプローチのファミリーを提案する。
- 参考スコア(独自算出の注目度): 2.0474076605741036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class expression learning is a branch of explainable supervised machine
learning of increasing importance. Most existing approaches for class
expression learning in description logics are search algorithms or
hard-rule-based. In particular, approaches based on refinement operators suffer
from scalability issues as they rely on heuristic functions to explore a large
search space for each learning problem. We propose a new family of approaches,
which we dub synthesis approaches. Instances of this family compute class
expressions directly from the examples provided. Consequently, they are not
subject to the runtime limitations of search-based approaches nor the lack of
flexibility of hard-rule-based approaches. We study three instances of this
novel family of approaches that use lightweight neural network architectures to
synthesize class expressions from sets of positive examples. The results of
their evaluation on four benchmark datasets suggest that they can effectively
synthesize high-quality class expressions with respect to the input examples in
under a second on average. Moreover, a comparison with the state-of-the-art
approaches CELOE and ELTL suggests that we achieve significantly better
F-measures on large ontologies. For reproducibility purposes, we provide our
implementation as well as pre-trained models in the public GitHub repository at
https://github.com/ConceptLengthLearner/NCES
- Abstract(参考訳): クラス表現学習は、重要性を増すための説明可能な教師付き機械学習の分野である。
記述論理におけるクラス表現学習の既存のアプローチは、探索アルゴリズムやハードルールベースである。
特に、洗練演算子に基づくアプローチは、各学習問題に対する大きな探索空間を探索するためにヒューリスティック関数に依存するため、スケーラビリティの問題に悩まされる。
そこで我々は,合成手法を考案した新しいアプローチのファミリーを提案する。
このファミリーのインスタンスは、提供される例から直接クラス式を計算します。
したがって、検索ベースのアプローチのランタイム制限や、ハードルールベースのアプローチの柔軟性の欠如には従わない。
本研究では,軽量ニューラルネットワークアーキテクチャを用いて,ポジティブな例の集合からクラス表現を合成する手法の3つの例について検討した。
4つのベンチマークデータセットで評価した結果, 平均1秒以内の入力例に対して, 高品質なクラス表現を効果的に合成できることが示唆された。
さらに, CELOE と ELTL との比較により, 大規模オントロジーにおけるF測定精度が有意に向上していることが示唆された。
再現性のために、私たちは実装と事前トレーニングされたモデルをhttps://github.com/conceptlengthlearner/ncesのgithubリポジトリで提供します。
関連論文リスト
- Nearest Neighbor Search over Vectorized Lexico-Syntactic Patterns for
Relation Extraction from Financial Documents [1.068607542484439]
そこで本研究では, 近縁な近接探索により, 試行時間における学習関係を概説する簡単な手法を提案する。
我々は、REFinDに対するアプローチを評価し、その手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-26T18:19:56Z) - Learning from Mistakes: Self-Regularizing Hierarchical Representations
in Point Cloud Semantic Segmentation [15.353256018248103]
LiDARセマンティックセマンティックセマンティクスは、きめ細かいシーン理解を実現するために注目を集めている。
本稿では、標準モデルから派生した分類ミスタケス(LEAK)からLEArnを分離する粗大な設定を提案する。
我々のLEAKアプローチは非常に一般的で、どんなセグメンテーションアーキテクチャにもシームレスに適用できます。
論文 参考訳(メタデータ) (2023-01-26T14:52:30Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Learning Gradual Argumentation Frameworks using Genetic Algorithms [5.953590600890214]
本稿では,議論型分類モデルの構造を同時に学習する遺伝的アルゴリズムを提案する。
本プロトタイプでは,学習性能と解釈可能性の観点から,決定木に匹敵する論証的分類モデルを学習する。
論文 参考訳(メタデータ) (2021-06-25T12:33:31Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Syntactic and Semantic-driven Learning for Open Information Extraction [42.65591370263333]
正確で高カバレッジのニューラルオープンIEシステムを構築する上で最大のボトルネックの1つは、大きなラベル付きコーパスの必要性である。
そこで本研究では,人間に反するデータを使わずにオープンなIEモデルを学習するシンタクティクスとセマンティック駆動型学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T02:59:40Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。