論文の概要: Heterogeneous LLM Methods for Ontology Learning (Few-Shot Prompting, Ensemble Typing, and Attention-Based Taxonomies)
- arxiv url: http://arxiv.org/abs/2508.19428v1
- Date: Tue, 26 Aug 2025 20:50:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.424433
- Title: Heterogeneous LLM Methods for Ontology Learning (Few-Shot Prompting, Ensemble Typing, and Attention-Based Taxonomies)
- Title(参考訳): オントロジー学習のための不均一LLM法(全ショットプロンプ、アンサンブルタイピング、注意に基づく分類)
- Authors: Aleksandra Beliaeva, Temurbek Rahmatullaev,
- Abstract要約: LLMs4OL 2025チャレンジのタスクA,B,Cに対処する包括的システムを提案する。
提案手法は、検索強化プロンプト、ゼロショット分類、アテンションに基づくグラフモデリングを組み合わせたものである。
これらのモジュラーでタスク固有のソリューションによって、公式のリーダーボードで上位の成果を得られるようになりました。
- 参考スコア(独自算出の注目度): 46.54026795022501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a comprehensive system for addressing Tasks A, B, and C of the LLMs4OL 2025 challenge, which together span the full ontology construction pipeline: term extraction, typing, and taxonomy discovery. Our approach combines retrieval-augmented prompting, zero-shot classification, and attention-based graph modeling -- each tailored to the demands of the respective task. For Task A, we jointly extract domain-specific terms and their ontological types using a retrieval-augmented generation (RAG) pipeline. Training data was reformulated into a document to terms and types correspondence, while test-time inference leverages semantically similar training examples. This single-pass method requires no model finetuning and improves overall performance through lexical augmentation Task B, which involves assigning types to given terms, is handled via a dual strategy. In the few-shot setting (for domains with labeled training data), we reuse the RAG scheme with few-shot prompting. In the zero-shot setting (for previously unseen domains), we use a zero-shot classifier that combines cosine similarity scores from multiple embedding models using confidence-based weighting. In Task C, we model taxonomy discovery as graph inference. Using embeddings of type labels, we train a lightweight cross-attention layer to predict is-a relations by approximating a soft adjacency matrix. These modular, task-specific solutions enabled us to achieve top-ranking results in the official leaderboard across all three tasks. Taken together these strategies showcase the scalability, adaptability, and robustness of LLM-based architectures for ontology learning across heterogeneous domains. Code is available at: https://github.com/BelyaevaAlex/LLMs4OL-Challenge-Alexbek
- Abstract(参考訳): LLMs4OL 2025チャレンジのタスクA,B,Cに対処する包括的システムを提案する。
我々のアプローチは、検索強化プロンプト、ゼロショット分類、アテンションベースのグラフモデリングを組み合わせ、それぞれのタスクの要求に合わせて調整する。
タスクAでは、検索拡張生成(RAG)パイプラインを用いて、ドメイン固有の用語とその存在論的タイプを共同で抽出する。
トレーニングデータは文書化されて用語と型対応に変換され、テストタイム推論は意味論的に類似したトレーニング例を活用する。
このシングルパス方式は、モデル微調整を必要とせず、与えられた項に型を割り当てる語彙拡張タスクBを通じて全体的な性能を改善する。
数ショット設定(ラベル付きトレーニングデータを持つドメインの場合)では、数ショットプロンプトでRAGスキームを再利用します。
ゼロショット設定(以前の未確認領域の場合)では、信頼度に基づく重み付けを用いて複数の埋め込みモデルからのコサイン類似度スコアを組み合わせたゼロショット分類器を用いる。
タスクCでは、分類学発見をグラフ推論としてモデル化する。
タイプラベルの埋め込みを用いて、ソフトな隣接行列を近似することにより、Is-a関係を予測するために軽量なクロスアテンション層を訓練する。
これらのモジュラーでタスク固有のソリューションによって、私たちは3つのタスクすべてで、公式のリーダーボードでトップレベルの結果を達成することができました。
これらの戦略をまとめて、異種ドメインにわたるオントロジー学習のためのLLMベースのアーキテクチャのスケーラビリティ、適応性、堅牢性を示す。
コードは、https://github.com/BelyaevaAlex/LLMs4OL-Challenge-Alexbekで入手できる。
関連論文リスト
- GLiClass: Generalist Lightweight Model for Sequence Classification Tasks [49.2639069781367]
本稿では,シーケンス分類タスクにGLiNERアーキテクチャを適用する新しい手法であるGLiClassを提案する。
提案手法は,ゼロショットおよび少数ショット学習シナリオに必要な柔軟性を維持しつつ,埋め込み方式に匹敵する高い精度と効率を実現する。
論文 参考訳(メタデータ) (2025-08-11T06:22:25Z) - End-to-End Ontology Learning with Large Language Models [11.755755139228219]
大規模言語モデル(LLM)は、オントロジー学習の様々なサブタスクを解決するために応用されている。
我々は、オントロジーの分類学的バックボーンをスクラッチから構築する汎用的でスケーラブルな方法であるOLLMによって、このギャップに対処する。
標準的なメトリクスとは対照的に、私たちのメトリクスは、グラフ間のより堅牢な構造的距離測定を定義するためにディープラーニング技術を使用します。
私たちのモデルは、arXivのような新しいドメインに効果的に適用できます。
論文 参考訳(メタデータ) (2024-10-31T02:52:39Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Truveta Mapper: A Zero-shot Ontology Alignment Framework [3.5284865194805106]
教師なしオントロジーマッチング(OM)やオントロジーアライメント(OA)に対する新しい視点の提案
提案するフレームワークであるTruveta Mapper (TM)は、マルチタスクのシーケンス・ツー・シーケンス・トランスフォーマーモデルを利用して、ゼロショット、統一、エンドツーエンドの方法で複数のアライメントを実行する。
TMは、公開コーパステキストと内部オントロジデータのみを事前訓練し、微調整する。
論文 参考訳(メタデータ) (2023-01-24T00:32:56Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。