論文の概要: Meronymic Ontology Extraction via Large Language Models
- arxiv url: http://arxiv.org/abs/2510.13839v1
- Date: Sat, 11 Oct 2025 11:54:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.463378
- Title: Meronymic Ontology Extraction via Large Language Models
- Title(参考訳): 大規模言語モデルによるメロニムオントロジー抽出
- Authors: Dekai Zhang, Simone Conia, Antonio Rago,
- Abstract要約: オンロジは、膨大な量の非構造化テキストを整理する手段として、今日のデジタル時代に欠かせないものとなっている。
本稿では,テキストからメロニメを抽出する完全自動手法を開発する。
- 参考スコア(独自算出の注目度): 16.08771514313186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ontologies have become essential in today's digital age as a way of organising the vast amount of readily available unstructured text. In providing formal structure to this information, ontologies have immense value and application across various domains, e.g., e-commerce, where countless product listings necessitate proper product organisation. However, the manual construction of these ontologies is a time-consuming, expensive and laborious process. In this paper, we harness the recent advancements in large language models (LLMs) to develop a fully-automated method of extracting product ontologies, in the form of meronymies, from raw review texts. We demonstrate that the ontologies produced by our method surpass an existing, BERT-based baseline when evaluating using an LLM-as-a-judge. Our investigation provides the groundwork for LLMs to be used more generally in (product or otherwise) ontology extraction.
- Abstract(参考訳): オントロジは、膨大な量の非構造化テキストを整理する手段として、今日のデジタル時代に欠かせないものとなっている。
この情報に形式的な構造を提供することで、オントロジは様々な領域、例えばeコマースにおいて大きな価値と応用をもたらします。
しかし、これらのオントロジーの手作業による構築は、時間を要する、高価で、退屈なプロセスである。
本稿では,大規模言語モデル(LLM)の最近の進歩を活用し,生のレビューテキストから商品オントロジーをメロニミー形式で抽出する完全自動化手法を開発する。
提案手法は, LLM-as-a-judge を用いた評価において,既存の BERT ベースラインを超えていることを示す。
本研究は, LLMのオントロジー抽出において, より一般的に使用されることを目的とした基礎研究である。
関連論文リスト
- LLM-based Triplet Extraction for Automated Ontology Generation in Software Engineering Standards [0.0]
ソフトウェアエンジニアリング標準(SES)は、長い、構造化されていないテキスト(高いノイズを伴う)とドメイン固有の用語の段落から構成される。
本研究では,オープンソースの大規模言語モデル (LLM) を用いたSESのためのRTEアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-29T17:14:54Z) - End-to-End Ontology Learning with Large Language Models [11.755755139228219]
大規模言語モデル(LLM)は、オントロジー学習の様々なサブタスクを解決するために応用されている。
我々は、オントロジーの分類学的バックボーンをスクラッチから構築する汎用的でスケーラブルな方法であるOLLMによって、このギャップに対処する。
標準的なメトリクスとは対照的に、私たちのメトリクスは、グラフ間のより堅牢な構造的距離測定を定義するためにディープラーニング技術を使用します。
私たちのモデルは、arXivのような新しいドメインに効果的に適用できます。
論文 参考訳(メタデータ) (2024-10-31T02:52:39Z) - Automating Intervention Discovery from Scientific Literature: A Progressive Ontology Prompting and Dual-LLM Framework [56.858564736806414]
本稿では,大規模言語モデル(LLM)を利用した科学文献の介入の同定手法を提案する。
言語病理領域における64,177論文のコーパスから,2,421件の介入が得られた。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - Large language models as oracles for instantiating ontologies with domain-specific knowledge [0.0]
ドメイン固有の知識を自動的にインスタンス化するドメインに依存しない手法を提案する。
提案手法は,複数回クエリを行い,その応答からクラスとプロパティのインスタンスを生成する。
実験により,本手法は最先端技術よりも最大5倍高い精度を実現した。
論文 参考訳(メタデータ) (2024-04-05T14:04:07Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Automatic Product Ontology Extraction from Textual Reviews [12.235907063179278]
提案手法は,既存の手法(Text2Onto と COMET)を多種多様な設定で抽出し,手作り(NetWord)よりも優れていることを示す。
提案手法は,Amazonの標準スコアアグリゲーションの代わりに,レビューに基づいて推奨商品を判断できる。
論文 参考訳(メタデータ) (2021-05-23T16:06:38Z) - Progressive Generation of Long Text with Pretrained Language Models [83.62523163717448]
GPT-2のような大量のテキストコーパスで事前訓練された大規模言語モデル(LM)は、強力なオープンドメインテキストジェネレータである。
このようなモデルが、特に小さなコーパス上のターゲットドメインに微調整された場合、コヒーレントな長いテキストパスを生成することは依然として困難である。
本稿では,低解像度から高解像度の画像に触発されて,テキストを段階的に生成する簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2020-06-28T21:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。