論文の概要: Understood in Translation, Transformers for Domain Understanding
- arxiv url: http://arxiv.org/abs/2012.10271v1
- Date: Fri, 18 Dec 2020 14:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:24:44.253728
- Title: Understood in Translation, Transformers for Domain Understanding
- Title(参考訳): 翻訳の理解とドメイン理解のためのトランスフォーマー
- Authors: Dimitrios Christofidellis, Matteo Manica, Leonidas Georgopoulos, Hans
Vandierendonck
- Abstract要約: 本稿では,コーパスの領域定義のためのトランスフォーマーに基づく教師あり機械学習手法を提案する。
このようなドメイン構造の自動定義が、生成したグラフの構成時間と品質の両方において有益である理由を論じる。
PubMedから抽出した出版物に基づく新しい健康領域データセットを提案する。
- 参考スコア(独自算出の注目度): 2.379911867541422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge acquisition is the essential first step of any Knowledge Graph (KG)
application. This knowledge can be extracted from a given corpus (KG generation
process) or specified from an existing KG (KG specification process). Focusing
on domain specific solutions, knowledge acquisition is a labor intensive task
usually orchestrated and supervised by subject matter experts. Specifically,
the domain of interest is usually manually defined and then the needed
generation or extraction tools are utilized to produce the KG. Herein, we
propose a supervised machine learning method, based on Transformers, for domain
definition of a corpus. We argue why such automated definition of the domain's
structure is beneficial both in terms of construction time and quality of the
generated graph. The proposed method is extensively validated on three public
datasets (WebNLG, NYT and DocRED) by comparing it with two reference methods
based on CNNs and RNNs models. The evaluation shows the efficiency of our model
in this task. Focusing on scientific document understanding, we present a new
health domain dataset based on publications extracted from PubMed and we
successfully utilize our method on this. Lastly, we demonstrate how this work
lays the foundation for fully automated and unsupervised KG generation.
- Abstract(参考訳): 知識獲得は知識グラフ(KG)アプリケーションにとって不可欠な第一歩である。
この知識は所定のコーパス(kg生成プロセス)から抽出するか、既存のkg(kg特定プロセス)から特定することができる。
ドメイン固有のソリューションに焦点を当てた知識獲得は、通常、主題の専門家によって編成され、監督される労働集約的なタスクです。
具体的には、通常、関心領域は手動で定義され、必要な生成または抽出ツールを使用してKGを生成する。
本稿では,コーパスのドメイン定義のためのトランスフォーマーに基づく教師付き機械学習手法を提案する。
このようなドメイン構造の自動定義が、生成したグラフの構成時間と品質の両方において有益である理由を論じる。
提案手法は3つの公開データセット(WebNLG, NYT, DocRED)に対して,CNNモデルとRNNモデルに基づく2つの参照手法との比較により広く検証されている。
評価は、このタスクにおける我々のモデルの効率を示す。
学術文献理解に焦点をあて,PubMedから抽出した論文を基にした新たな健康領域データセットを提案する。
最後に、この作業が、完全に自動化され、教師なしのkg生成の基盤となることを実証する。
関連論文リスト
- Quality > Quantity: Synthetic Corpora from Foundation Models for
Closed-Domain Extractive Question Answering [35.38140071573828]
閉領域内での抽出的質問応答について検討し,対象とする事前学習の概念を紹介する。
提案フレームワークはGalacticaを用いて,特定の書体スタイルやトピックに合わせて合成された「ターゲット」コーパスを生成する。
論文 参考訳(メタデータ) (2023-10-25T20:48:16Z) - Text-To-KG Alignment: Comparing Current Methods on Classification Tasks [2.191505742658975]
知識グラフ(KG)は、事実情報の密集した構造化された表現を提供する。
最近の研究は、追加のコンテキストとしてKGから情報を取得するパイプラインモデルの作成に重点を置いている。
現在のメソッドが、アライメントされたサブグラフがクエリに完全に関連しているシナリオとどのように比較されているかは分かっていない。
論文 参考訳(メタデータ) (2023-06-05T13:45:45Z) - Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language
Models [53.09723678623779]
本稿では,高品質なクエリプロンプトを自動的に生成し,大規模テキストコーパスからサポート情報を取得するためのTAGREALを提案する。
その結果、TAGREALは2つのベンチマークデータセット上で最先端のパフォーマンスを達成することがわかった。
TAGREALは、限られたトレーニングデータであっても、既存の埋め込みベース、グラフベース、およびPLMベースの手法よりも優れた性能を有することが判明した。
論文 参考訳(メタデータ) (2023-05-24T22:09:35Z) - Towards Ontology Reshaping for KG Generation with User-in-the-Loop:
Applied to Bosch Welding [18.83458273005337]
知識グラフ(KG)は幅広い用途で使われている。
KG生成の自動化は、産業におけるデータ量と多様性のために非常に望ましい。
論文 参考訳(メタデータ) (2022-09-22T14:59:13Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Knowledge Graph Anchored Information-Extraction for Domain-Specific
Insights [1.6308268213252761]
新しいドメイン内で特定の情報ニーズを満たすためにタスクベースのアプローチを使用します。
美術NLP技術の状態を構成したパイプラインを使用して、インスタンスレベルのセマンティック構造を自動的に抽出する。
論文 参考訳(メタデータ) (2021-04-18T19:28:10Z) - BERT-based knowledge extraction method of unstructured domain text [0.6445605125467573]
本論文ではBERTに基づく知識抽出手法を提案する。
ドメインの知識ポイントを質問と回答のペアに変換し、文書の回答に関するテキストをコンテキストとして使用する。
より多くの保険条項から知識ポイントを直接抽出するために使用される。
論文 参考訳(メタデータ) (2021-03-01T03:24:35Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z) - Domain Adaption for Knowledge Tracing [65.86619804954283]
本稿では,DAKT問題に対処するための新しい適応型フレームワーク,すなわち知識追跡(AKT)を提案する。
まず,Deep Knowledge Trace(DKT)に基づく教育的特徴(スリップ,推測,質問文など)を取り入れ,優れた知識追跡モデルを得る。
第2の側面として、3つのドメイン適応プロセスを提案し、採用する。まず、ターゲットモデルトレーニングに有用なソースインスタンスを選択するために、自動エンコーダを事前訓練する。
論文 参考訳(メタデータ) (2020-01-14T15:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。