論文の概要: Focusing Knowledge-based Graph Argument Mining via Topic Modeling
- arxiv url: http://arxiv.org/abs/2102.02086v1
- Date: Wed, 3 Feb 2021 14:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:40:11.597384
- Title: Focusing Knowledge-based Graph Argument Mining via Topic Modeling
- Title(参考訳): トピックモデリングによる知識に基づくグラフ引数マイニング
- Authors: Patrick Abels, Zahra Ahmadi, Sophie Burkhardt, Benjamin Schiller,
Iryna Gurevych, Stefan Kramer
- Abstract要約: 文レベルの議論マイニングの課題について検討するが、議論は特定・理解するためにはある程度の世界知識が必要である。
話題モデルを用いて,構造化知識ベースWikidataから話題や文固有の証拠を抽出する。
また、構造化知識基盤の一般的な不完全性に対処するために、Googleが発見したトピック特化記事に基づく第2のグラフを構築した。
- 参考スコア(独自算出の注目度): 43.69396080017806
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Decision-making usually takes five steps: identifying the problem, collecting
data, extracting evidence, identifying pro and con arguments, and making
decisions. Focusing on extracting evidence, this paper presents a hybrid model
that combines latent Dirichlet allocation and word embeddings to obtain
external knowledge from structured and unstructured data. We study the task of
sentence-level argument mining, as arguments mostly require some degree of
world knowledge to be identified and understood. Given a topic and a sentence,
the goal is to classify whether a sentence represents an argument in regard to
the topic. We use a topic model to extract topic- and sentence-specific
evidence from the structured knowledge base Wikidata, building a graph based on
the cosine similarity between the entity word vectors of Wikidata and the
vector of the given sentence. Also, we build a second graph based on
topic-specific articles found via Google to tackle the general incompleteness
of structured knowledge bases. Combining these graphs, we obtain a graph-based
model which, as our evaluation shows, successfully capitalizes on both
structured and unstructured data.
- Abstract(参考訳): 意思決定は通常、問題の特定、データ収集、証拠の抽出、プロとコンの議論の特定、意思決定の5つのステップを踏む。
本論文では,潜在ディリクレ割り当てと単語埋め込みを組み合わせて,構造化データと非構造化データから外部知識を得るハイブリッドモデルを提案する。
議論は主に特定・理解するためにある程度の世界知識を必要とするため,文レベルの議論マイニングの課題について検討する。
トピックと文を与えられると、目的は、文章がそのトピックに関する引数を表すかどうかを分類することである。
我々は、Wikidataのエンティティワードベクトルと与えられた文のベクトルとの間の余分な類似性に基づくグラフを構築し、構造化知識ベースWikidataからトピックと文固有のエビデンスを抽出するためにトピックモデルを用いる。
また,構造化知識基盤の全般的不完全性に取り組むために,google によるトピック固有記事に基づく第2のグラフを構築した。
これらのグラフを組み合わせることで,構造化データと非構造化データの両方をうまく活用できるグラフモデルを得る。
関連論文リスト
- Graph2topic: an opensource topic modeling framework based on sentence
embedding and community detection [1.6242924916178283]
クラスタリングベースのトピックモデルは、生成確率的なトピックモデルよりも優れたトピックを生成することができる。
本稿では,トピックモデリングのための簡易かつ効果的なフレームワークであるグラフ to トピック (G2T) を提案する。
G2Tは、異なる長さの英語と中国語の文書で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-04-13T16:28:07Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Fact-driven Logical Reasoning for Machine Reading Comprehension [82.58857437343974]
私たちは、常識と一時的な知識のヒントの両方を階層的にカバーする動機があります。
具体的には,文の背骨成分を抽出し,知識単位の一般的な定式化を提案する。
次に、事実単位の上にスーパーグラフを構築し、文レベル(事実群間の関係)と実体レベルの相互作用の利点を享受する。
論文 参考訳(メタデータ) (2021-05-21T13:11:13Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Fusing Context Into Knowledge Graph for Commonsense Reasoning [21.33294077354958]
外部エンティティ記述を利用して,グラフエンティティのコンテキスト情報を提供する。
CommonsenseQAタスクでは、まず質問と選択から概念を抽出し、これらの概念の間に関連するトリプルを見つけます。
CommonsenseQAデータセットでは、80.7%(シングルモデル)と83.3%(アンサンブルモデル)の精度で最新の結果を達成しています。
論文 参考訳(メタデータ) (2020-12-09T00:57:49Z) - Inducing Alignment Structure with Gated Graph Attention Networks for
Sentence Matching [24.02847802702168]
本稿では,文マッチングのためのグラフベースの手法を提案する。
文ペアをグラフとして表現し、慎重に設計する。
次に,文マッチングのために構築したグラフを符号化するために,新しいゲートグラフアテンションネットワークを用いる。
論文 参考訳(メタデータ) (2020-10-15T11:25:54Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Heterogeneous Graph Neural Networks for Extractive Document
Summarization [101.17980994606836]
クロス文関係は、抽出文書要約における重要なステップである。
We present a graph-based neural network for extractive summarization (HeterSumGraph)
抽出文書要約のためのグラフベースニューラルネットワークに異なる種類のノードを導入する。
論文 参考訳(メタデータ) (2020-04-26T14:38:11Z) - Classifying Wikipedia in a fine-grained hierarchy: what graphs can
contribute [0.5530212768657543]
我々は、ウィキペディアを細かな名前付きエンティティオントロジー(NE)に分類するために、グラフ(構造)情報を統合するタスクに対処する。
日本語ウィキペディアから抽出した22,000ページのサブセットを手作業でラベル付けして,大規模な実践実験を行う。
この結果から,グラフ情報の統合は,入力特徴空間の空白度を低減することに成功し,従来の作業と同等かそれ以上の分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-01-21T14:19:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。