論文の概要: Prediction of concept lengths for fast concept learning in description
logics
- arxiv url: http://arxiv.org/abs/2107.04911v1
- Date: Sat, 10 Jul 2021 21:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 15:54:04.841792
- Title: Prediction of concept lengths for fast concept learning in description
logics
- Title(参考訳): 記述論理における高速概念学習のための概念長予測
- Authors: N'Dah Jean Kouagou, Stefan Heindorf, Caglar Demir, Axel-Cyrille Ngonga
Ngomo
- Abstract要約: 洗練された演算子に基づく概念学習アプローチは、概念を計算するために部分的に順序付けられた解空間を探索する。
本稿では,対象概念の長さを予測するための教師付き機械学習手法を提案する。
概念長予測器をCELOEアルゴリズムに統合することで、CELOEのランタイムを最大13.4倍改善し、結果の品質に大きな変更を加えることなく実現可能であることを示す。
- 参考スコア(独自算出の注目度): 2.0474076605741036
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Concept learning approaches based on refinement operators explore partially
ordered solution spaces to compute concepts, which are used as binary
classification models for individuals. However, the refinement trees spanned by
these approaches can easily grow to millions of nodes for complex learning
problems. This leads to refinement-based approaches often failing to detect
optimal concepts efficiently. In this paper, we propose a supervised machine
learning approach for learning concept lengths, which allows predicting the
length of the target concept and therefore facilitates the reduction of the
search space during concept learning. To achieve this goal, we compare four
neural architectures and evaluate them on four benchmark knowledge
graphs--Carcinogenesis, Mutagenesis, Semantic Bible, Family Benchmark. Our
evaluation results suggest that recurrent neural network architectures perform
best at concept length prediction with an F-measure of up to 92%. We show that
integrating our concept length predictor into the CELOE (Class Expression
Learner for Ontology Engineering) algorithm improves CELOE's runtime by a
factor of up to 13.4 without any significant changes to the quality of the
results it generates. For reproducibility, we provide our implementation in the
public GitHub repository at
https://github.com/ConceptLengthLearner/ReproducibilityRepo
- Abstract(参考訳): 洗練された演算子に基づく概念学習アプローチは、概念を計算するために部分的に順序付けられた解空間を探索する。
しかし、これらのアプローチによって区切られた改良木は、複雑な学習問題に対して容易に数百万のノードに成長できる。
これにより、リファインメントベースのアプローチは、しばしば最適な概念を効率的に検出できない。
本稿では,対象概念の長さを予測し,概念学習における探索空間の削減を容易にする,概念長学習のための教師付き機械学習アプローチを提案する。
この目的を達成するために、我々は4つのニューラルネットワークを比較し、それらを4つのベンチマーク知識グラフで評価する。
評価結果から,再帰的ニューラルネットワークアーキテクチャは,f-測定値が最大92%で,概念長予測に最適であることが示唆された。
概念長予測器をCELOE(Class Expression Learner for Ontology Engineering)アルゴリズムに統合することで,CELOEのランタイムを最大13.4倍改善し,結果の質に大きな変化を生じさせないことを示す。
再現性については、https://github.com/ConceptLengthLearner/ReproducibilityRepoで公開GitHubリポジトリに実装を提供しています。
関連論文リスト
- Concept Learning in the Wild: Towards Algorithmic Understanding of Neural Networks [2.102973349909511]
本稿では,既存のグラフニューラルネットワーク(GNN)モデルにおける概念学習について検討する。
我々の分析によると、このモデルは人間設計SAT、特に「支援」の概念と一致する重要な概念を学習している。
発見された概念は、ブラックボックスのGNNを「リバースエンジニアリング」し、ホワイトボックスの教科書アルゴリズムとして書き換える。
論文 参考訳(メタデータ) (2024-12-15T14:37:56Z) - A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Restyling Unsupervised Concept Based Interpretable Networks with Generative Models [14.604305230535026]
本稿では,事前学習された生成モデルの潜在空間に概念特徴をマッピングすることに依存する新しい手法を提案する。
本手法の有効性を,解釈可能な予測ネットワークの精度,再現性,学習概念の忠実性,一貫性の観点から定量的に検証した。
論文 参考訳(メタデータ) (2024-07-01T14:39:41Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - On the performance of deep learning for numerical optimization: an
application to protein structure prediction [0.0]
本稿では,グローバルな最適化問題に対処するディープラーニングモデルの性能について述べる。
提案手法は、効率的なニューラルネットワークを生成するために、NAS(Neural Architecture Search)の概念を採用する。
実験により、手書きのアルゴリズムと比較して、生成された学習モデルが競合する結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-12-17T17:01:30Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。