論文の概要: Transforming UNL graphs in OWL representations
- arxiv url: http://arxiv.org/abs/2201.04841v1
- Date: Thu, 13 Jan 2022 09:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 13:58:11.509885
- Title: Transforming UNL graphs in OWL representations
- Title(参考訳): OWL表現におけるUNLグラフの変換
- Authors: David Rouquet, Val\'erie Bellynck (UGA), Christian Boitet (UGA),
Vincent Berment
- Abstract要約: 本稿では,RDF上にUniversal Networking Language (UNL)仕様を実装した。
RDF-UNLグラフは、一般的なSHACLルールを用いてコンテンツ抽出をサポートすることができることを示す。
当社のRDF-UNL実装と本論文の動作例のコードはすべて,CeCILL-Bライセンス下で公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting formal knowledge (ontologies) from natural language is a challenge
that can benefit from a (semi-) formal linguistic representation of texts, at
the semantic level. We propose to achieve such a representation by implementing
the Universal Networking Language (UNL) specifications on top of RDF. Thus, the
meaning of a statement in any language will be soundly expressed as a RDF-UNL
graph that constitutes a middle ground between natural language and formal
knowledge. In particular, we show that RDF-UNL graphs can support content
extraction using generic SHACL rules and that reasoning on the extracted facts
allows detecting incoherence in the original texts. This approach is
experimented in the UNseL project that aims at extracting ontological
representations from system requirements/specifications in order to check that
they are consistent, complete and unambiguous. Our RDF-UNL implementation and
all code for the working examples of this paper are publicly available under
the CeCILL-B license at https://gitlab.tetras-libre.fr/unl/rdf-unl
- Abstract(参考訳): 自然言語から形式的な知識(オントロジー)を抽出することは、意味レベルでテキストの形式的な言語表現から恩恵を受けることができる課題である。
本稿では,RDF上にUniversal Networking Language (UNL)仕様を実装し,そのような表現を実現することを提案する。
したがって、任意の言語における文の意味は、自然言語と形式的知識の中間となるRDF-UNLグラフとして健全に表現される。
特に,rdf-unlグラフは汎用的なshaclルールを用いてコンテンツ抽出をサポートし,抽出された事実に対する推論によって原文の一貫性の欠如を検出できることを示す。
このアプローチはUNseLプロジェクトで実験され、システム要件/仕様から存在論的表現を抽出して、一貫性、完全性、曖昧性をチェックする。
我々のRDF-UNL実装と作業例のコードは、https://gitlab.tetras-libre.fr/unl/rdf-unlでCeCILL-Bライセンスの下で公開されています。
関連論文リスト
- Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Identification of Entailment and Contradiction Relations between Natural Language Sentences: A Neurosymbolic Approach [8.931767102433637]
自然言語推論(NLI)は、自然言語理解の重要な側面である。
RTEへの説明可能なアプローチの必要性に対処するために,テキストを抽象表現に変換する新しいパイプラインを提案する。
次に、AMRグラフを命題論理に変換し、SATソルバを用いて自動推論を行う。
論文 参考訳(メタデータ) (2024-05-02T13:06:24Z) - Learning with Language-Guided State Abstractions [58.199148890064826]
高次元観測空間における一般化可能なポリシー学習は、よく設計された状態表現によって促進される。
我々の手法であるLGAは、自然言語の監視と言語モデルからの背景知識を組み合わせて、目に見えないタスクに適した状態表現を自動構築する。
シミュレーションされたロボットタスクの実験では、LGAは人間によって設計されたものと同様の状態抽象化をもたらすが、そのほんの少しの時間で得られる。
論文 参考訳(メタデータ) (2024-02-28T23:57:04Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Emergent Representations of Program Semantics in Language Models Trained on Programs [3.376269351435396]
プログラムの形式的意味論を表現するために,コードの言語モデル(LM)が学習できることを示す。
本研究では,2次元グリッド環境をナビゲートするドメイン固有言語で記述されたプログラムの合成コーパス上でトランスフォーマーモデルを訓練する。
論文 参考訳(メタデータ) (2023-05-18T17:58:08Z) - Semantic Role Labeling Meets Definition Modeling: Using Natural Language
to Describe Predicate-Argument Structures [104.32063681736349]
本稿では,離散ラベルの代わりに自然言語定義を用いて述語-代名詞構造を記述する手法を提案する。
PropBankスタイルおよびFrameNetスタイル、依存性ベースおよびスパンベースSRLに関する実験と分析は、解釈可能な出力を持つフレキシブルモデルが必ずしも性能を犠牲にしないことを示す。
論文 参考訳(メタデータ) (2022-12-02T11:19:16Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - Generalizing to New Domains by Mapping Natural Language to Lifted LTL [20.58567011476273]
本稿では、ひとつの肯定的なタスク仕様例から学習可能な、中間的コンテキストクエリ表現を提案する。
我々は、自然言語を翻訳できる最先端のCopyNetモデルと比較する。
シミュレーションされたOO-MDP環境において,提案手法の出力を計画に利用できることを実証した。
論文 参考訳(メタデータ) (2021-10-11T20:49:26Z) - BURT: BERT-inspired Universal Representation from Learning Meaningful
Segment [46.51685959045527]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
我々は、異なるレベルの言語単位を同じベクトル空間に符号化する普遍表現モデルburtを提案する。
具体的には,ポイントワイズ相互情報(pmi)に基づいて有意義なセグメントを抽出・マスキングし,異なる粒度目標を事前学習段階に組み込む。
論文 参考訳(メタデータ) (2020-12-28T16:02:28Z) - Learning Universal Representations from Word to Sentence [89.82415322763475]
この研究は普遍的な表現学習、すなわち一様ベクトル空間における言語単位の異なるレベルへの埋め込みを導入し、探求する。
本稿では, 単語, 句, 文の観点から, 類似したデータセットを構築するためのアプローチを提案する。
適切なトレーニング設定を組み込んだよく訓練されたトランスフォーマーモデルが、効果的に普遍的な表現が得られることを実証的に検証する。
論文 参考訳(メタデータ) (2020-09-10T03:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。