論文の概要: Towards Ontology Construction with Language Models
- arxiv url: http://arxiv.org/abs/2309.09898v1
- Date: Mon, 18 Sep 2023 16:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:30:46.353954
- Title: Towards Ontology Construction with Language Models
- Title(参考訳): 言語モデルを用いたオントロジー構築に向けて
- Authors: Maurice Funk, Simon Hosemann, Jean Christoph Jung, Carsten Lutz
- Abstract要約: 本稿では,大言語モデルを問合せすることで,与えられたドメインの概念階層を自動的に構築する手法を提案する。
実験の結果,LLMは概念階層の構築に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 13.94023263091972
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for automatically constructing a concept hierarchy for a
given domain by querying a large language model. We apply this method to
various domains using OpenAI's GPT 3.5. Our experiments indicate that LLMs can
be of considerable help for constructing concept hierarchies.
- Abstract(参考訳): 本稿では,大言語モデルを問合せすることで,与えられたドメインの概念階層を自動的に構築する手法を提案する。
本手法をOpenAIの GPT 3.5 を用いて様々な領域に適用する。
我々の実験は、llmが概念階層の構築に大いに役立つことを示している。
関連論文リスト
- Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Guiding the PLMs with Semantic Anchors as Intermediate Supervision:
Towards Interpretable Semantic Parsing [57.11806632758607]
本稿では,既存の事前学習言語モデルを階層型デコーダネットワークに組み込むことを提案する。
第一原理構造をセマンティックアンカーとすることで、2つの新しい中間管理タスクを提案する。
いくつかのセマンティック解析ベンチマークで集中的な実験を行い、我々のアプローチがベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T07:27:29Z) - Extracting Domain-specific Concepts from Large-scale Linked Open Data [0.0]
提案手法は,LOD語彙を対象ドメインに関連する用語とリンクすることにより,検索エンティティを定義する。
対象領域における概念的関係の範囲を決定するために,共通上層実体の発生と経路の連鎖関係について検討した。
論文 参考訳(メタデータ) (2021-11-22T10:25:57Z) - HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain
Language Model Compression [53.90578309960526]
大規模事前学習言語モデル(PLM)は、従来のニューラルネットワーク手法と比較して圧倒的な性能を示している。
階層的および領域的関係情報の両方を抽出する階層的関係知識蒸留法(HRKD)を提案する。
論文 参考訳(メタデータ) (2021-10-16T11:23:02Z) - A Grounded Approach to Modeling Generic Knowledge Acquisition [2.0668345369301266]
概念ネットワークを導入することにより,基礎言語獲得をモデル化する計算フレームワークを拡張した。
この新しい抽象化レイヤにより、システムはジェネリックステートメントから学んだ知識をエンコードし、システムによって学習された概念間の関連を表現することができる。
論文 参考訳(メタデータ) (2021-05-07T12:27:55Z) - Linguistic Structure Guided Context Modeling for Referring Image
Segmentation [61.701577239317785]
本稿では,マルチモーダルコンテキストを相互モーダル相互作用によりモデル化する「ガザ・プロパゲート・ディストリビュート」方式を提案する。
我々のLSCMモジュールは依存パーシングツリーワードグラフ(DPT-WG)を構築し、文の有効なマルチモーダルコンテキストを含むようにすべての単語を誘導する。
論文 参考訳(メタデータ) (2020-10-01T16:03:51Z) - DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis [71.40586258509394]
本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-28T21:07:32Z) - Towards Evaluating Plan Generation Approaches with Instructional Texts [0.0]
83のテキスト命令からなるデータセットを英語で導入し、より構造化された形に改良し、各命令に対して手作業で計画を立てる。
論文 参考訳(メタデータ) (2020-01-13T12:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。