論文の概要: Meaning Representation of Numeric Fused-Heads in UCCA
- arxiv url: http://arxiv.org/abs/2106.07364v1
- Date: Fri, 4 Jun 2021 16:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 19:08:19.694874
- Title: Meaning Representation of Numeric Fused-Heads in UCCA
- Title(参考訳): UCCAにおける核融合ヘッドの意味表現
- Authors: Ruixiang Cui, Daniel Hershcovich
- Abstract要約: 暗黙的なUCCAは、数値的な融合ヘッドに一貫して対応しない。
我々はこの現象がテキストに広まり、正しい推論に欠かせないため重要であると考えている。
我々は、AMRなどの他の意味表現によるこの現象の治療について検討している。
- 参考スコア(独自算出の注目度): 7.785534704637891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We exhibit that the implicit UCCA parser does not address numeric fused-heads
(NFHs) consistently, which could result either from inconsistent annotation,
insufficient training data or a modelling limitation. and show which factors
are involved. We consider this phenomenon important, as it is pervasive in text
and critical for correct inference. Careful design and fine-grained annotation
of NFHs in meaning representation frameworks would benefit downstream tasks
such as machine translation, natural language inference and question answering,
particularly when they require numeric reasoning, as recovering and
categorizing them. We are investigating the treatment of this phenomenon by
other meaning representations, such as AMR. We encourage researchers in meaning
representations, and computational linguistics in general, to address this
phenomenon in future research.
- Abstract(参考訳): 暗黙的なUCCAパーサは、一貫性のないアノテーション、不十分なトレーニングデータ、あるいはモデリング制限によって生じる可能性のある数値融合ヘッド(NFH)に一貫して対応しない。
どの要因が関与しているかを示します
我々はこの現象がテキストに広まり、正しい推論のために重要であると考えている。
NFHの注意深い設計と詳細なアノテーションは、表現フレームワークが機械翻訳、自然言語推論、質問応答といった下流タスク、特に数値推論を必要とする場合には、それらを回復して分類するのに役立つことを意味する。
我々は、AMRなどの他の意味表現によるこの現象の治療について検討している。
我々は,この現象を今後の研究で解決するために,研究者に意味表現や計算言語学全般を奨励する。
関連論文リスト
- Aggregation Artifacts in Subjective Tasks Collapse Large Language Models' Posteriors [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理の主要な手法となっている。
本研究は,低アグリゲーション,異質なアノテーションを組み合わせたアグリゲーションの結果が,プロンプトに有害なノイズを生じさせるアノテーションのアーティファクトに繋がるかどうかを考察する。
この結果から,アグリゲーションは主観的タスクのモデル化において不明瞭な要因であり,代わりに個人をモデリングすることを重視することが示唆された。
論文 参考訳(メタデータ) (2024-10-17T17:16:00Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - Intervention Lens: from Representation Surgery to String Counterfactuals [106.98481791980367]
言語モデル(LM)の表現空間をターゲットとした介入は、モデル行動に影響を与える効果的な手段として現れてきた。
表現反事実を文字列反事実に変換する方法を提案する。
結果として生じるカウンターファクトは、データ拡張による分類のバイアスを軽減するために使用することができる。
論文 参考訳(メタデータ) (2024-02-17T18:12:02Z) - What Are You Token About? Dense Retrieval as Distributions Over the
Vocabulary [68.77983831618685]
本稿では,2つのエンコーダが生成するベクトル表現を,モデルの語彙空間に投影することで解釈する。
得られたプロジェクションは、リッチな意味情報を含み、それらの間の接続を描画し、スパース検索を行う。
論文 参考訳(メタデータ) (2022-12-20T16:03:25Z) - Assessing the Limits of the Distributional Hypothesis in Semantic
Spaces: Trait-based Relational Knowledge and the Impact of Co-occurrences [6.994580267603235]
この研究は、自然言語の有意義な表現を捉えるために、データに必要とされることの比較的無意味な経路に寄与する。
これは、英語とスペイン語のセマンティックスペースが特定の種類の関係知識をいかにうまく捉えているかを評価することを必要とする。
論文 参考訳(メタデータ) (2022-05-16T12:09:40Z) - UCTopic: Unsupervised Contrastive Learning for Phrase Representations
and Topic Mining [27.808028645942827]
UCTopicは、文脈対応のフレーズ表現とトピックマイニングのための、教師なしのコントラスト学習フレームワークである。
2つの句の文脈が同じ意味を持つかどうかを区別するために、大規模に事前訓練されている。
4つのエンティティクラスタリングタスクにおいて、最先端のフレーズ表現モデルを平均38.2%NMIで上回る。
論文 参考訳(メタデータ) (2022-02-27T22:43:06Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Intensionalizing Abstract Meaning Representations: Non-Veridicality and
Scope [13.362632630637712]
階層グラフに訴えることなく、非バリダリティの問題を解決する方法を示す。
提案した翻訳は、態度報告の事象意味論に関する形式言語学の文献から着想を得たものである。
論文 参考訳(メタデータ) (2021-09-20T21:48:02Z) - Refining Implicit Argument Annotation for UCCA [6.873471412788333]
本稿では,Universal Cognitive Conceptualの基盤層上に暗黙的アノテーションを具体化するためのタイポロジーを提案する。
提案された暗黙的な議論分類は暗黙的な役割解釈の理論によって駆動され、Deictic, Generic, Genre-based, Type-identible, Non-specific, Iterated-setの6つのタイプから構成される。
論文 参考訳(メタデータ) (2020-05-26T17:24:15Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。