論文の概要: Comparison by Conversion: Reverse-Engineering UCCA from Syntax and
Lexical Semantics
- arxiv url: http://arxiv.org/abs/2011.00834v1
- Date: Mon, 2 Nov 2020 09:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:57:41.330975
- Title: Comparison by Conversion: Reverse-Engineering UCCA from Syntax and
Lexical Semantics
- Title(参考訳): 変換による比較:構文と語彙意味論からutcをリバースエンジニアリングする
- Authors: Daniel Hershcovich, Nathan Schneider, Dotan Dvir, Jakob Prange, Miryam
de Lhoneux and Omri Abend
- Abstract要約: 堅牢な自然言語理解システムの構築には、さまざまな言語的意味表現が相互に補完するかどうか、明確に評価する必要がある。
i)ルールベースのコンバータ,(ii)他の情報のみを特徴として1つのフレームワークに解析する教師付きデレクシカル化の2つの相補的手法を用いて,異なるフレームワークからの意味表現間のマッピングを評価する。
- 参考スコア(独自算出の注目度): 29.971739294416714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building robust natural language understanding systems will require a clear
characterization of whether and how various linguistic meaning representations
complement each other. To perform a systematic comparative analysis, we
evaluate the mapping between meaning representations from different frameworks
using two complementary methods: (i) a rule-based converter, and (ii) a
supervised delexicalized parser that parses to one framework using only
information from the other as features. We apply these methods to convert the
STREUSLE corpus (with syntactic and lexical semantic annotations) to UCCA (a
graph-structured full-sentence meaning representation). Both methods yield
surprisingly accurate target representations, close to fully supervised UCCA
parser quality---indicating that UCCA annotations are partially redundant with
STREUSLE annotations. Despite this substantial convergence between frameworks,
we find several important areas of divergence.
- Abstract(参考訳): 堅牢な自然言語理解システムの構築には、さまざまな言語的意味表現が相互に補完するかどうか、明確に評価する必要がある。
体系的な比較分析を行うために,異なるフレームワークの意味表現間のマッピングを2つの補完的手法を用いて評価する。
(i)ルールベースのコンバータ、及び
(ii)一方の情報のみを特徴として用いる一方のフレームワークにパースする教師付き辞書化パーサ。
本稿では,STREUSLEコーパス(構文および語彙意味アノテーション)をUCCA(グラフ構造化完全文表現)に変換する手法を提案する。
どちらのメソッドも、完全に管理されたUCCAパーサの品質に近い驚くほど正確なターゲット表現を生成します。
このようなフレームワーク間の相当な収束にもかかわらず、分岐の重要な領域がいくつか見つかる。
関連論文リスト
- Cross-domain Chinese Sentence Pattern Parsing [67.1381983012038]
文パターン構造解析(SPS)は、主に言語教育に使用される構文解析法である。
既存のSPSは教科書のコーパスに大きく依存しており、クロスドメイン機能に欠ける。
本稿では,大規模言語モデル(LLM)を自己学習フレームワーク内で活用する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T05:30:48Z) - BERM: Training the Balanced and Extractable Representation for Matching
to Improve Generalization Ability of Dense Retrieval [54.66399120084227]
本稿では,BERMと呼ばれるマッチング信号の取得により,高密度検索の一般化を改善する手法を提案する。
センス検索は、ドメイン内のラベル付きデータセットでトレーニングされた場合、第1段階の検索プロセスにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2023-05-18T15:43:09Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - UnifieR: A Unified Retriever for Large-Scale Retrieval [84.61239936314597]
大規模な検索は、クエリを与えられた巨大なコレクションから関連ドキュメントをリコールすることである。
事前学習型言語モデル(PLM)に基づく最近の検索手法は,高密度ベクターあるいはレキシコンに基づくパラダイムに大別することができる。
本論文では,高密度ベクトルとレキシコンに基づく検索を2つの表現能力を持つ1つのモデルで統合する学習フレームワークUnifieRを提案する。
論文 参考訳(メタデータ) (2022-05-23T11:01:59Z) - Self-Attentive Constituency Parsing for UCCA-based Semantic Parsing [0.0]
グラフベースの表現は、テキストの意味構造を表現する意味表現のアプローチの1つである。
本稿では主にUCCAグラフに基づく意味表現に焦点を当てる。
低リソース言語に対するゼロショット学習と少数ショット学習を用いた単一言語タスクとクロスランガルタスクの両方の結果を示す。
論文 参考訳(メタデータ) (2021-10-01T19:10:18Z) - Cross-linguistically Consistent Semantic and Syntactic Annotation of Child-directed Speech [27.657676278734534]
本稿では,子指向音声のこのようなコーパスを,感性論理形式と組み合わせて構築する手法を提案する。
このアプローチは言語間一貫した表現を強制し、依存関係表現とセマンティック解析の最近の進歩に基づいている。
論文 参考訳(メタデータ) (2021-09-22T18:17:06Z) - Character-level Representations Improve DRS-based Semantic Parsing Even
in the Age of BERT [6.705577865528099]
文字レベルと文脈言語モデル表現を組み合わせて解析性能を向上させる。
英語では、これらの改善は個々の言語情報ソースを追加するよりも大きい。
セマンティックタグに基づく新しい解析手法により,選択したセマンティックな現象のサブセット間で,文字レベルの表現により性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-09T10:24:12Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Refining Implicit Argument Annotation for UCCA [6.873471412788333]
本稿では,Universal Cognitive Conceptualの基盤層上に暗黙的アノテーションを具体化するためのタイポロジーを提案する。
提案された暗黙的な議論分類は暗黙的な役割解釈の理論によって駆動され、Deictic, Generic, Genre-based, Type-identible, Non-specific, Iterated-setの6つのタイプから構成される。
論文 参考訳(メタデータ) (2020-05-26T17:24:15Z) - Multilingual Alignment of Contextual Word Representations [49.42244463346612]
BERTはXNLIのゼロショット性能をベースモデルに比べて大幅に改善した。
単語検索の文脈バージョンを導入し、下流のゼロショット転送とよく相関していることを示す。
これらの結果は、大規模多言語事前学習モデルの理解に有用な概念としてコンテキストアライメントをサポートする。
論文 参考訳(メタデータ) (2020-02-10T03:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。