論文の概要: Ontolearn-A Framework for Large-scale OWL Class Expression Learning in Python
- arxiv url: http://arxiv.org/abs/2510.11561v1
- Date: Mon, 13 Oct 2025 16:04:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.44574
- Title: Ontolearn-A Framework for Large-scale OWL Class Expression Learning in Python
- Title(参考訳): Ontolearn-A Framework for Large-scale OWL Class Expression Learning in Python
- Authors: Caglar Demir, Alkid Baci, N'Dah Jean Kouagou, Leonie Nora Sieger, Stefan Heindorf, Simon Bin, Lukas Blübaum, Alexander Bigerl, Axel-Cyrille Ngonga Ngomo,
- Abstract要約: Ontolearnは、大きな知識グラフ上でOWLクラス表現を学習するためのフレームワークである。
学習したOWLクラス式は、知識グラフのインスタンスを分類するために使用することができる。
Ontolearnはリモートのトリプルストア上で簡単に操作できる。
- 参考スコア(独自算出の注目度): 39.28980157397703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present Ontolearn-a framework for learning OWL class expressions over large knowledge graphs. Ontolearn contains efficient implementations of recent stateof-the-art symbolic and neuro-symbolic class expression learners including EvoLearner and DRILL. A learned OWL class expression can be used to classify instances in the knowledge graph. Furthermore, Ontolearn integrates a verbalization module based on an LLM to translate complex OWL class expressions into natural language sentences. By mapping OWL class expressions into respective SPARQL queries, Ontolearn can be easily used to operate over a remote triplestore. The source code of Ontolearn is available at https://github.com/dice-group/Ontolearn.
- Abstract(参考訳): 本稿では,大規模知識グラフ上でOWLクラス表現を学習するためのフレームワークOntolearnを提案する。
Ontolearnには、EvoLearnerやDRILLなど、最新の最先端のシンボルおよびニューロシンボリッククラス学習者の効率的な実装が含まれている。
学習したOWLクラス式は、知識グラフのインスタンスを分類するために使用することができる。
さらに、OntolearnはLLMに基づく動詞化モジュールを統合し、複雑なOWLクラス表現を自然言語文に変換する。
OWLクラス式をそれぞれのSPARQLクエリにマッピングすることで、Ontolearnはリモートのトリプルストア上で簡単に操作できる。
Ontolearnのソースコードはhttps://github.com/dice-group/Ontolearn.comで公開されている。
関連論文リスト
- Mistral-SPLADE: LLMs for better Learned Sparse Retrieval [7.652738829153342]
本稿では,意味的キーワード拡張学習にデコーダのみを用いたモデルを提案する。
我々はMistralをバックボーンとして,SPLADEに似たLearned Sparse Retrieverを開発した。
提案実験は,デコーダのみに基づくスパース検索モデル (LLM) が既存のLSRシステムの性能を上回るという仮説を支持する。
論文 参考訳(メタデータ) (2024-08-20T18:21:54Z) - LBC: Language-Based-Classifier for Out-Of-Variable Generalization [14.033963471962823]
大規模言語モデル(LLM)は、応答生成のような自然言語処理タスクにおいて大きな成功を収めている。
LLMの事前学習された知識により、追加のトレーニングなしでテストに現れる新しい変数を解釈できることがわかった。
本稿では,LBC(Language-Based-Classifier)を提案する。
論文 参考訳(メタデータ) (2024-08-20T15:05:02Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - AttriCLIP: A Non-Incremental Learner for Incremental Knowledge Learning [53.32576252950481]
連続学習は、モデルが逐次到着したデータから段階的に知識を学習できるようにすることを目的としている。
本稿では,新しいクラスやタスクの知識を段階的に抽出する,AttriCLIPという非インクリメンタル学習手法を提案する。
論文 参考訳(メタデータ) (2023-05-19T07:39:17Z) - Small-Text: Active Learning for Text Classification in Python [23.87081733039124]
small-textはPython用の使いやすいアクティブラーニングライブラリである。
シングルラベルとマルチラベルのテキスト分類のためのプールベースのアクティブラーニングを提供する。
論文 参考訳(メタデータ) (2021-07-21T19:23:56Z) - Mining Knowledge for Natural Language Inference from Wikipedia
Categories [53.26072815839198]
NLIおよびLEタスクのモデル性能を改善するためのリソースであるWikiNLIを紹介する。
ウィキペディアには、自然に注釈付けされたカテゴリー階層から作られた428,899の句が含まれている。
我々は、BERTやRoBERTaのような強力なベースラインをWikiNLIで事前訓練し、下流タスクでモデルを転送することで改善できることを示します。
論文 参考訳(メタデータ) (2020-10-03T00:45:01Z) - Fuzzy OWL-BOOST: Learning Fuzzy Concept Inclusions via Real-Valued
Boosting [0.0]
ファジィ学習の概念公理の問題に対処し、Tの個々のインスタンスとなるための十分な条件を記述する。
本稿では(ファジィ)ケースに適応したRealBoostブースティングアルゴリズムに依存するFuzzy OWL-BOOSTを提案する。
論文 参考訳(メタデータ) (2020-08-03T15:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。