論文の概要: Another Dead End for Morphological Tags? Perturbed Inputs and Parsing
- arxiv url: http://arxiv.org/abs/2305.15119v1
- Date: Wed, 24 May 2023 13:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:48:13.435979
- Title: Another Dead End for Morphological Tags? Perturbed Inputs and Parsing
- Title(参考訳): 形態素タグのもう1つの行き止まり?
摂動入力とパーシング
- Authors: Alberto Mu\~noz-Ortiz and David Vilares
- Abstract要約: 形態的タグは、誤りを犯す単語のみのニューラルを補正する役割を担っていることを示す。
また, 形態的タグが語彙的摂動に対して有意に頑健であれば, 誤りを訂正できることが示唆された。
- 参考スコア(独自算出の注目度): 12.234169944475537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The usefulness of part-of-speech tags for parsing has been heavily questioned
due to the success of word-contextualized parsers. Yet, most studies are
limited to coarse-grained tags and high quality written content; while we know
little about their influence when it comes to models in production that face
lexical errors. We expand these setups and design an adversarial attack to
verify if the use of morphological information by parsers: (i) contributes to
error propagation or (ii) if on the other hand it can play a role to correct
mistakes that word-only neural parsers make. The results on 14 diverse UD
treebanks show that under such attacks, for transition- and graph-based models
their use contributes to degrade the performance even faster, while for the
(lower-performing) sequence labeling parsers they are helpful. We also show
that if morphological tags were utopically robust against lexical
perturbations, they would be able to correct parsing mistakes.
- Abstract(参考訳): 構文解析におけるpart-of-speech タグの有用性は,単語文脈付きパーサの成功によって大いに疑問視されている。
しかし、ほとんどの研究は粗い粒度のタグと高品質のコンテンツに限られています。
これらの設定を拡張し、逆攻撃を設計し、パーサーによる形態情報の使用の有無を検証する。
i) エラーの伝播に寄与する、または
(ii)一方、単語のみのニューラルパーサが犯す誤りを訂正する役割を果たせる場合。
14の多様なud木バンクの結果は、そのような攻撃下では、トランジッションモデルやグラフベースモデルの場合、パフォーマンスがさらに速く低下すると同時に、(よりパフォーマンスの低い)シーケンスラベリングパーサが有用であることを示している。
また, 形態素タグが語彙摂動に対してユートピーに頑健であれば, 解析ミスを訂正できることを示した。
関連論文リスト
- Integrating Supertag Features into Neural Discontinuous Constituent Parsing [0.0]
伝統的な選挙区の見解では、構成要素は隣接した単語で構成されており、ドイツ語のような言語で一般的である。
トランジションベースの構文解析は、大きな注釈付きコーパス上で教師あり学習を用いて生のテキストを入力した木を生成する。
論文 参考訳(メタデータ) (2024-10-11T12:28:26Z) - Syntactic Language Change in English and German: Metrics, Parsers, and Convergences [56.47832275431858]
本論文は,過去160年間の議会討論のコーパスを用いて,英語とドイツ語の統語的言語変化のダイアクロニックな傾向を考察する。
私たちは、広く使われているStanford Coreと、新しい4つの選択肢を含む5つの依存関係をベースとしています。
文長分布の尾部では,構文的尺度の変化が頻繁であることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-18T11:46:16Z) - Parsing linearizations appreciate PoS tags - but some are fussy about
errors [12.024457689086008]
PoSタグは、かつては構文解析の有用な情報源として扱われていたが、深層学習の普及に伴い、より状況的になってきている。
グラフおよび遷移に基づくラベル付けに対するPoSタグの影響に関する最近の研究は、タグ付け精度が高い場合や低リソースシナリオでのみ有用であることを示している。
我々は研究を行い、いくつかの傾向を明らかにする。その中で、PoSタグは一般に他のパラダイムよりもシーケンスラベリングに有用であるが、その精度はエンコードに依存している。
論文 参考訳(メタデータ) (2022-10-27T07:15:36Z) - Influence Functions for Sequence Tagging Models [49.81774968547377]
影響関数を拡張して、予測を学習ポイントまで追跡し、それらに通知します。
本手法を用いて,系統的アノテーションの誤りを同定し,セグメント効果の実用性を示す。
論文 参考訳(メタデータ) (2022-10-25T17:13:11Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - What Taggers Fail to Learn, Parsers Need the Most [0.38073142980733]
本報告では,ゴールド標準タグの使用が解析性能に大きく寄与する理由を評価するために,ニューラルUPOSタグの誤り解析を行う。
我々は、単語の種類について暗黙的に学習する神経依存度と、タグが予測されたタグを用いて最小の影響を説明するためのエラーとの関連性を評価する。
論文 参考訳(メタデータ) (2021-04-02T15:04:56Z) - A Simple Global Neural Discourse Parser [61.728994693410954]
本稿では,手作業で構築した特徴を必要とせず,学習したスパン表現のみに基づく簡易なグラフベースニューラル談話を提案する。
我々は,我々のモデルが世界規模で最高の性能を達成し,最先端の欲求に匹敵する性能を実証的に示す。
論文 参考訳(メタデータ) (2020-09-02T19:28:40Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z) - Adv-BERT: BERT is not robust on misspellings! Generating nature
adversarial samples on BERT [95.88293021131035]
しかし、悪意のある敵のインスタンスがしばしば存在するのではなく、テクトナチュラルなシナリオでモデルがどのように機能するかは定かではない。
この研究は、NLPにおける最先端のTransformerスタイルモデルであるBERTの、ノイズの多いデータを扱うための頑健さを体系的に探求する。
論文 参考訳(メタデータ) (2020-02-27T22:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。