論文の概要: Semantics-Aware Caching for Concept Learning
- arxiv url: http://arxiv.org/abs/2603.06506v2
- Date: Thu, 12 Mar 2026 09:22:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.421532
- Title: Semantics-Aware Caching for Concept Learning
- Title(参考訳): 概念学習のためのセマンティックス対応キャッシング
- Authors: Louis Mozart Kamdem Teyou, Caglar Demir, Axel-Cyrille Ngonga Ngomo,
- Abstract要約: 最先端の概念学習者は、数え切れないほど無限の概念空間を通して反復的な探索に頼ることが多い。
単純な学習問題は、適切なソリューションを見つけるために数十のインスタンス検索コールを必要とするかもしれないが、複雑な学習問題は数千の呼び出しを必要とするかもしれない。
我々は、セマンティクスを意識したキャッシュアプローチを提示することで、ランタイムの課題を軽減する。
- 参考スコア(独自算出の注目度): 8.645884574749282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept learning is a form of supervised machine learning that operates on knowledge bases in description logics. State-of-the-art concept learners often rely on an iterative search through a countably infinite concept space. In each iteration, they retrieve instances of candidate solutions to select the best concept for the next iteration. While simple learning problems might require a few dozen instance retrieval calls to find a fitting solution, complex learning problems might necessitate thousands of calls. We alleviate the resulting runtime challenge by presenting a semantics-aware caching approach. Our cache is essentially a subsumption-aware map that links concepts to a set of instances via crisp set operations. Our experiments on 5 datasets with 4 symbolic reasoners, a neuro-symbolic reasoner, and 5 popular pagination policies demonstrate that our cache can reduce the runtime of concept retrieval and concept learning by an order of magnitude while being effective for both symbolic and neuro-symbolic reasoners.
- Abstract(参考訳): 概念学習は、記述論理の知識ベースで動作する教師付き機械学習の一形態である。
最先端の概念学習者は、数え切れないほど無限の概念空間を通して反復的な探索に頼ることが多い。
各イテレーションでは、候補ソリューションのインスタンスを取得して、次のイテレーションで最適なコンセプトを選択する。
単純な学習問題は、適切なソリューションを見つけるために数十のインスタンス検索コールを必要とするかもしれないが、複雑な学習問題は数千の呼び出しを必要とするかもしれない。
セマンティクスを意識したキャッシュアプローチを提供することで、実行時の課題を軽減します。
私たちのキャッシュは基本的に、crispセット操作を通じて概念をインスタンスのセットにリンクするサブクエスト対応マップです。
4つのシンボリック推論器,1つのニューロシンボリック推論器,および5つの一般的なパギン化ポリシーを用いた実験により,我々のキャッシュは,シンボリック推論器とニューロシンボリック推論器の両方に有効でありながら,概念検索と概念学習のランタイムを桁違いに削減できることを示した。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Infinite dSprites for Disentangled Continual Learning: Separating Memory Edits from Generalization [36.23065731463065]
Infinite dSpritesは任意の長さの連続的な分類ベンチマークを作成するための擬似ツールである。
この単純なベンチマークでは、十分に長い時間をかけて、全ての主要な連続学習手法の性能が低下していることが示される。
生成因子を直接監督した簡単な設定では、学習階級に依存しない変換が破滅的な忘れを回避できる方法を示している。
論文 参考訳(メタデータ) (2023-12-27T22:05:42Z) - Learning Permutation-Invariant Embeddings for Description Logic Concepts [1.1650381752104297]
概念学習は、背景知識と入力例から記述論理の概念を学ぶことを扱う。
この非自明なタスクは、無限の準順序空間内の探索問題として定式化されることが多い。
学習問題を多ラベル分類問題として再構成し、置換不変な埋め込みを学習するニューラル埋め込みモデル(NERO)を提案する。
論文 参考訳(メタデータ) (2023-03-03T10:57:04Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Semantic Search for Large Scale Clinical Ontologies [63.71950996116403]
本稿では,大規模臨床語彙検索システムを構築するための深層学習手法を提案する。
本稿では,意味学習データに基づくトレーニングデータを生成するTriplet-BERTモデルを提案する。
このモデルは,5つの実ベンチマークデータセットを用いて評価され,提案手法は自由テキストから概念,概念まで,概念語彙の検索において高い結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-01T05:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。