論文の概要: Transforming UNL graphs in OWL representations
- arxiv url: http://arxiv.org/abs/2201.04841v1
- Date: Thu, 13 Jan 2022 09:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 13:58:11.509885
- Title: Transforming UNL graphs in OWL representations
- Title(参考訳): OWL表現におけるUNLグラフの変換
- Authors: David Rouquet, Val\'erie Bellynck (UGA), Christian Boitet (UGA),
Vincent Berment
- Abstract要約: 本稿では,RDF上にUniversal Networking Language (UNL)仕様を実装した。
RDF-UNLグラフは、一般的なSHACLルールを用いてコンテンツ抽出をサポートすることができることを示す。
当社のRDF-UNL実装と本論文の動作例のコードはすべて,CeCILL-Bライセンス下で公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting formal knowledge (ontologies) from natural language is a challenge
that can benefit from a (semi-) formal linguistic representation of texts, at
the semantic level. We propose to achieve such a representation by implementing
the Universal Networking Language (UNL) specifications on top of RDF. Thus, the
meaning of a statement in any language will be soundly expressed as a RDF-UNL
graph that constitutes a middle ground between natural language and formal
knowledge. In particular, we show that RDF-UNL graphs can support content
extraction using generic SHACL rules and that reasoning on the extracted facts
allows detecting incoherence in the original texts. This approach is
experimented in the UNseL project that aims at extracting ontological
representations from system requirements/specifications in order to check that
they are consistent, complete and unambiguous. Our RDF-UNL implementation and
all code for the working examples of this paper are publicly available under
the CeCILL-B license at https://gitlab.tetras-libre.fr/unl/rdf-unl
- Abstract(参考訳): 自然言語から形式的な知識(オントロジー)を抽出することは、意味レベルでテキストの形式的な言語表現から恩恵を受けることができる課題である。
本稿では,RDF上にUniversal Networking Language (UNL)仕様を実装し,そのような表現を実現することを提案する。
したがって、任意の言語における文の意味は、自然言語と形式的知識の中間となるRDF-UNLグラフとして健全に表現される。
特に,rdf-unlグラフは汎用的なshaclルールを用いてコンテンツ抽出をサポートし,抽出された事実に対する推論によって原文の一貫性の欠如を検出できることを示す。
このアプローチはUNseLプロジェクトで実験され、システム要件/仕様から存在論的表現を抽出して、一貫性、完全性、曖昧性をチェックする。
我々のRDF-UNL実装と作業例のコードは、https://gitlab.tetras-libre.fr/unl/rdf-unlでCeCILL-Bライセンスの下で公開されています。
関連論文リスト
- Learning with Language-Guided State Abstractions [58.199148890064826]
高次元観測空間における一般化可能なポリシー学習は、よく設計された状態表現によって促進される。
我々の手法であるLGAは、自然言語の監視と言語モデルからの背景知識を組み合わせて、目に見えないタスクに適した状態表現を自動構築する。
シミュレーションされたロボットタスクの実験では、LGAは人間によって設計されたものと同様の状態抽象化をもたらすが、そのほんの少しの時間で得られる。
論文 参考訳(メタデータ) (2024-02-28T23:57:04Z) - Large Language Models on Graphs: A Comprehensive Survey [81.7684686396014]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Towards Verifiable Text Generation with Symbolic References [28.626840006327665]
大規模言語モデル (LLM) は、可塑性で流動的なテキストを合成する素晴らしい能力を実証している。
SymGen は LLM に対して、ある条件データに存在するフィールドへの明示的なシンボル参照で正規出力をインターリーブするように促す。
データ・トゥ・テキストと質問実験全体を通して、LLMは、流速と精度を維持しつつ、シンボル参照を利用するテキストを直接出力できることが判明した。
論文 参考訳(メタデータ) (2023-11-15T18:28:29Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Semantic Role Labeling Meets Definition Modeling: Using Natural Language
to Describe Predicate-Argument Structures [104.32063681736349]
本稿では,離散ラベルの代わりに自然言語定義を用いて述語-代名詞構造を記述する手法を提案する。
PropBankスタイルおよびFrameNetスタイル、依存性ベースおよびスパンベースSRLに関する実験と分析は、解釈可能な出力を持つフレキシブルモデルが必ずしも性能を犠牲にしないことを示す。
論文 参考訳(メタデータ) (2022-12-02T11:19:16Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Generalizing to New Domains by Mapping Natural Language to Lifted LTL [20.58567011476273]
本稿では、ひとつの肯定的なタスク仕様例から学習可能な、中間的コンテキストクエリ表現を提案する。
我々は、自然言語を翻訳できる最先端のCopyNetモデルと比較する。
シミュレーションされたOO-MDP環境において,提案手法の出力を計画に利用できることを実証した。
論文 参考訳(メタデータ) (2021-10-11T20:49:26Z) - BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment [46.51685959045527]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
我々は、異なるレベルの言語単位を同じベクトル空間に符号化する普遍表現モデルburtを提案する。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
論文 参考訳(メタデータ) (2020-12-28T16:02:28Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z) - Cross-Lingual Adaptation Using Universal Dependencies [1.027974860479791]
複雑なNLPタスクのためのUD構文解析木を用いて訓練されたモデルは、非常に異なる言語を特徴付けることができることを示す。
UD解析木に基づいて,木カーネルを用いた複数のモデルを開発し,これらのモデルが英語データセットでトレーニングされた場合,他の言語のデータを正しく分類できることを示す。
論文 参考訳(メタデータ) (2020-03-24T13:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。