論文の概要: Towards Ontology Construction with Language Models
- arxiv url: http://arxiv.org/abs/2309.09898v1
- Date: Mon, 18 Sep 2023 16:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:30:46.353954
- Title: Towards Ontology Construction with Language Models
- Title(参考訳): 言語モデルを用いたオントロジー構築に向けて
- Authors: Maurice Funk, Simon Hosemann, Jean Christoph Jung, Carsten Lutz
- Abstract要約: 本稿では,大言語モデルを問合せすることで,与えられたドメインの概念階層を自動的に構築する手法を提案する。
実験の結果,LLMは概念階層の構築に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 13.94023263091972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for automatically constructing a concept hierarchy for a
given domain by querying a large language model. We apply this method to
various domains using OpenAI's GPT 3.5. Our experiments indicate that LLMs can
be of considerable help for constructing concept hierarchies.
- Abstract(参考訳): 本稿では,大言語モデルを問合せすることで,与えられたドメインの概念階層を自動的に構築する手法を提案する。
本手法をOpenAIの GPT 3.5 を用いて様々な領域に適用する。
我々の実験は、llmが概念階層の構築に大いに役立つことを示している。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - Concept Formation and Alignment in Language Models: Bridging Statistical Patterns in Latent Space to Concept Taxonomy [11.232704182001253]
本稿では,言語モデル(LM)の領域における概念形成とアライメントについて考察する。
様々なLMで学習した意味表現において,概念とその階層構造を識別する機構を提案する。
論文 参考訳(メタデータ) (2024-06-08T01:27:19Z) - Large Language Models as Planning Domain Generators [21.61328475841776]
大規模言語モデル(LLM)は、単純なテキスト記述から計画的なドメインモデルを生成するために使用できる。
LLMは、自然言語記述から正しい計画領域を生成するのに適度な習熟度を示す。
論文 参考訳(メタデータ) (2024-04-02T19:39:23Z) - Domain Prompt Learning with Quaternion Networks [49.45309818782329]
本稿では、ドメイン固有の基礎モデルからドメイン固有の知識を活用して、ビジョン言語モデルの堅牢な認識能力を特定ドメインに転送することを提案する。
本稿では、階層型言語プロンプト特徴とドメイン固有の視覚特徴との間のモーダル関係を解析することにより、視覚プロンプト特徴を生成する階層型アプローチを提案する。
提案手法は,即時学習のための新しい最先端結果を実現する。
論文 参考訳(メタデータ) (2023-12-12T08:49:39Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Extracting Domain-specific Concepts from Large-scale Linked Open Data [0.0]
提案手法は,LOD語彙を対象ドメインに関連する用語とリンクすることにより,検索エンティティを定義する。
対象領域における概念的関係の範囲を決定するために,共通上層実体の発生と経路の連鎖関係について検討した。
論文 参考訳(メタデータ) (2021-11-22T10:25:57Z) - A Grounded Approach to Modeling Generic Knowledge Acquisition [2.0668345369301266]
概念ネットワークを導入することにより,基礎言語獲得をモデル化する計算フレームワークを拡張した。
この新しい抽象化レイヤにより、システムはジェネリックステートメントから学んだ知識をエンコードし、システムによって学習された概念間の関連を表現することができる。
論文 参考訳(メタデータ) (2021-05-07T12:27:55Z) - Linguistic Structure Guided Context Modeling for Referring Image
Segmentation [61.701577239317785]
本稿では,マルチモーダルコンテキストを相互モーダル相互作用によりモデル化する「ガザ・プロパゲート・ディストリビュート」方式を提案する。
我々のLSCMモジュールは依存パーシングツリーワードグラフ(DPT-WG)を構築し、文の有効なマルチモーダルコンテキストを含むようにすべての単語を誘導する。
論文 参考訳(メタデータ) (2020-10-01T16:03:51Z) - DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis [71.40586258509394]
本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-28T21:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。