論文の概要: Text-based NP Enrichment
- arxiv url: http://arxiv.org/abs/2109.12085v1
- Date: Fri, 24 Sep 2021 17:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 14:14:46.949471
- Title: Text-based NP Enrichment
- Title(参考訳): テキストベースNPエンリッチメント
- Authors: Yanai Elazar, Victoria Basmov, Yoav Goldberg, Reut Tsarfaty
- Abstract要約: 我々は、テキストベースのNPエンリッチメント(TNE)のタスクを確立する。つまり、各NPに、テキスト内の他のNPとの間に保持されるすべての前置詞による関係を豊かにする。
人間はこのような関係をシームレスに回復するが、現在の最先端モデルは問題の暗黙的な性質のためにそれらと戦っている。
この問題に対する最初の大規模データセットを構築し、正式なフレーミングとアノテーションの範囲を提供し、データを解析し、タスクに微調整されたニューラルネットワークモデルの結果を報告する。
- 参考スコア(独自算出の注目度): 51.403543011094975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the relations between entities denoted by NPs in text is a
critical part of human-like natural language understanding. However, only a
fraction of such relations is covered by NLP tasks and models nowadays. In this
work, we establish the task of text-based NP enrichment (TNE), that is,
enriching each NP with all the preposition-mediated relations that hold between
this and the other NPs in the text. The relations are represented as triplets,
each denoting two NPs linked via a preposition. Humans recover such relations
seamlessly, while current state-of-the-art models struggle with them due to the
implicit nature of the problem. We build the first large-scale dataset for the
problem, provide the formal framing and scope of annotation, analyze the data,
and report the result of fine-tuned neural language models on the task,
demonstrating the challenge it poses to current technology. We created a
webpage with the data, data-exploration UI, code, models, and demo to foster
further research into this challenging text understanding problem at
yanaiela.github.io/TNE/.
- Abstract(参考訳): NPによって表されるエンティティ間の関係をテキストで理解することは、人間のような自然言語理解の重要な部分である。
しかし、現在ではNLPタスクやモデルによってカバーされている関係はごくわずかである。
本研究は,テキストベースNPエンリッチメント(TNE)の課題,すなわちテキスト内の他のNPとの間に保持されるすべての前置詞による関係を,各NPを豊かにするものである。
これらの関係は三重項として表され、それぞれ前置詞でリンクされた2つのNPを示す。
人間はこのような関係をシームレスに回復するが、現在の最先端モデルは問題の暗黙的な性質のためにそれらと戦っている。
この問題に対する最初の大規模なデータセットを構築し、正式なフレーミングとアノテーションの範囲を提供し、データを分析し、タスクに微調整されたニューラルネットワークモデルの結果を報告し、それが現在の技術にもたらす課題を実証します。
yanaiela.github.io/tne/におけるこの困難なテキスト理解問題に関するさらなる研究を促進するため、データ、データエクスプロレーションui、コード、モデル、デモを備えたwebページを作成しました。
関連論文リスト
- In-Context In-Context Learning with Transformer Neural Processes [50.57807892496024]
In-context In-context Learning pseudo-token TNP (ICICL-TNP) を開発した。
ICICL-TNPは、データポイントとデータセットのセットの両方を条件付けし、コンテキスト内での学習を可能にする。
複数の実験において,文脈内学習の重要性とICICL-TNPの有効性を実証した。
論文 参考訳(メタデータ) (2024-06-19T12:26:36Z) - Surveying the Landscape of Text Summarization with Deep Learning: A
Comprehensive Review [2.4185510826808487]
ディープラーニングは、言語データの複雑な表現を学習できるモデルの開発を可能にすることによって、自然言語処理(NLP)に革命をもたらした。
NLPのディープラーニングモデルは、通常、大量のデータを使用してディープニューラルネットワークをトレーニングし、言語データ内のパターンと関係を学習する。
テキスト要約にディープラーニングを適用することは、テキスト要約タスクを実行するためにディープニューラルネットワークを使用することを指す。
論文 参考訳(メタデータ) (2023-10-13T21:24:37Z) - Analyzing Vietnamese Legal Questions Using Deep Neural Networks with
Biaffine Classifiers [3.116035935327534]
我々は深層ニューラルネットワークを用いてベトナムの法的問題から重要な情報を抽出することを提案する。
自然言語で法的疑問が与えられた場合、その疑問に答えるために必要な情報を含む全てのセグメントを抽出することが目的である。
論文 参考訳(メタデータ) (2023-04-27T18:19:24Z) - TAGPRIME: A Unified Framework for Relational Structure Extraction [71.88926365652034]
TAGPRIMEは、与えられた条件に関する情報を入力テキストに追加するシーケンスタグ付けモデルである。
事前学習された言語モデルにおける自己認識機構により、プライミングワードは、出力された文脈化された表現に、与えられた条件に関するより多くの情報を含む。
5つの異なる言語にまたがる10のデータセットをカバーする3つのタスクに関する大規模な実験と分析は、TAGPRIMEの汎用性と有効性を示している。
論文 参考訳(メタデータ) (2022-05-25T08:57:46Z) - A Hierarchical N-Gram Framework for Zero-Shot Link Prediction [28.776131952767333]
ゼロショットリンク予測(HNZSLP)のための階層的N-Gramフレームワークを提案する。
我々のアプローチは、まず曲面名に階層的なn-gramグラフを構築し、表面名につながるn-gramの構造構造をモデル化する。
変換器をベースとしたGramTransformerは階層的なn-gramグラフをモデル化してZSLPの関係埋め込みを構築する。
論文 参考訳(メタデータ) (2022-04-16T14:52:05Z) - Link Prediction on N-ary Relational Data Based on Relatedness Evaluation [61.61555159755858]
我々は,n-aryリレーショナルデータ上でリンク予測を行うNaLPという手法を提案する。
各 n 個の関係事実を、その役割と役割と値のペアの集合として表現する。
実験結果は,提案手法の有効性と有用性を検証した。
論文 参考訳(メタデータ) (2021-04-21T09:06:54Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。