論文の概要: Pynsett: A programmable relation extractor
- arxiv url: http://arxiv.org/abs/2007.02100v2
- Date: Sun, 4 Oct 2020 22:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:00:12.847974
- Title: Pynsett: A programmable relation extractor
- Title(参考訳): Pynsett: プログラマブルな関係抽出器
- Authors: Alberto Cetoli
- Abstract要約: 本稿では,テキストをセマンティックグラフに解析することで,言語に対するプログラマブルな関係抽出手法を提案する。
人は、グラフ表現にマッチするパターンとして振る舞う平易な英語でルールを定義することができる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a programmable relation extraction method for the English
language by parsing texts into semantic graphs. A person can define rules in
plain English that act as matching patterns onto the graph representation.
These rules are designed to capture the semantic content of the documents,
allowing for flexibility and ad-hoc entities. Relation extraction is a complex
task that typically requires sizable training corpora. The method proposed here
is ideal for extracting specialized ontologies in a limited collection of
documents.
- Abstract(参考訳): 本稿では,テキストをセマンティックグラフに解析することで,言語に対するプログラマブルな関係抽出手法を提案する。
人は、グラフ表現に一致するパターンとして振る舞う平易な英語の規則を定義することができる。
これらのルールはドキュメントの意味的内容をキャプチャするために設計されており、柔軟性とアドホックなエンティティを可能にする。
関係抽出は、通常、大きなトレーニングコーパスを必要とする複雑なタスクである。
本提案手法は,文書の限られたコレクションにおいて,特殊なオントロジーを抽出するのに最適である。
関連論文リスト
- A General and Flexible Multi-concept Parsing Framework for Multilingual Semantic Matching [60.51839859852572]
我々は,テキストを多言語セマンティックマッチングのためのマルチコンセプトに分解し,NERモデルに依存するモデルからモデルを解放することを提案する。
英語データセットのQQPとMRPC、中国語データセットのMedical-SMについて包括的な実験を行った。
論文 参考訳(メタデータ) (2024-03-05T13:55:16Z) - GUIDO: A Hybrid Approach to Guideline Discovery & Ordering from Natural
Language Texts [0.0]
GUIDOはプロセスモデル抽出タスクに対するハイブリッドアプローチである。
提案したアプローチは、純粋なルールベースのアプローチよりもはるかに優れた結果が得られる。
それでも、純粋に機械学習ベースのアプローチと比較して、アノテーションのコストは低いままだ。
論文 参考訳(メタデータ) (2023-07-19T13:01:03Z) - Structured information extraction from complex scientific text with
fine-tuned large language models [55.96705756327738]
そこで本研究では,共振器認識と関係抽出のための簡単なシーケンス・ツー・シーケンス手法を提案する。
このアプローチは、約500組のプロンプトで微調整された、事前訓練済みの大規模言語モデル(LLM)であるGPT-3を利用する。
このアプローチは、構造化されていないテキストから抽出された構造化知識の大規模なデータベースを得るための、シンプルで、アクセス可能で、非常に柔軟な経路を示す。
論文 参考訳(メタデータ) (2022-12-10T07:51:52Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Automatic Extraction of Rules Governing Morphological Agreement [103.78033184221373]
原文から第一パス文法仕様を抽出する自動フレームワークを開発する。
我々は、世界の多くの言語の文法の中核にあるモルフォシンタクティックな現象である合意を記述する規則の抽出に焦点をあてる。
我々のフレームワークはUniversal Dependenciesプロジェクトに含まれるすべての言語に適用され、有望な結果が得られます。
論文 参考訳(メタデータ) (2020-10-02T18:31:45Z) - Heterogeneous Graph Neural Networks for Extractive Document
Summarization [101.17980994606836]
クロス文関係は、抽出文書要約における重要なステップである。
We present a graph-based neural network for extractive summarization (HeterSumGraph)
抽出文書要約のためのグラフベースニューラルネットワークに異なる種類のノードを導入する。
論文 参考訳(メタデータ) (2020-04-26T14:38:11Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z) - Selective Attention Encoders by Syntactic Graph Convolutional Networks
for Document Summarization [21.351111598564987]
本稿では,文書中の文から解析木を接続するグラフを提案し,文書の構文表現を学習するために重ねられたグラフ畳み込みネットワーク(GCN)を利用する。
提案したGCNによる選択的アテンションアプローチは,ベースラインよりも優れ,データセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-03-18T01:30:02Z) - Extraction of Templates from Phrases Using Sequence Binary Decision
Diagrams [3.867363075280544]
本稿では、SeqBDD(Sequence Binary Decision Diagram)の緩和版を用いて、タグ付きテキストのみからテンプレートを抽出するための教師なしアプローチを提案する。
本論文の主な貢献はSeqBDD構築アルゴリズムの緩和形式であり、少量のデータから一般的な表現を作成できる。
実験の結果,ソーシャルメディアからの短いメッセージからコーパスやフレーズテンプレートから動詞+前置テンプレートをベースとしたタスクを高品質に抽出できることがわかった。
論文 参考訳(メタデータ) (2020-01-28T05:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。