論文の概要: Not All Linearizations Are Equally Data-Hungry in Sequence Labeling
Parsing
- arxiv url: http://arxiv.org/abs/2108.07556v1
- Date: Tue, 17 Aug 2021 10:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 18:51:59.664887
- Title: Not All Linearizations Are Equally Data-Hungry in Sequence Labeling
Parsing
- Title(参考訳): 系列ラベル解析におけるすべての線形化が等しくデータハングリーであるとは限らない
- Authors: Alberto Mu\~noz-Ortiz, Michalina Strzyz, David Vilares
- Abstract要約: 依存関係解析をシーケンスラベリングとしてキャストするために線形化が提案されている。
我々は、これらの線形化が低リソースのセットアップでどのように振る舞うかを研究する。
その結果、ヘッドセレクション符号化はよりデータ効率が高く、理想的なフレームワークでより優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 19.9169198376948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Different linearizations have been proposed to cast dependency parsing as
sequence labeling and solve the task as: (i) a head selection problem, (ii)
finding a representation of the token arcs as bracket strings, or (iii)
associating partial transition sequences of a transition-based parser to words.
Yet, there is little understanding about how these linearizations behave in
low-resource setups. Here, we first study their data efficiency, simulating
data-restricted setups from a diverse set of rich-resource treebanks. Second,
we test whether such differences manifest in truly low-resource setups. The
results show that head selection encodings are more data-efficient and perform
better in an ideal (gold) framework, but that such advantage greatly vanishes
in favour of bracketing formats when the running setup resembles a real-world
low-resource configuration.
- Abstract(参考訳): i) 見出し選択問題、(ii) トークンアークの表現を括弧列として見つけること、(iii) トランジッションベースのパーサの部分遷移シーケンスを単語に関連付けること。
しかし、これらの線形化が低リソース設定でどのように振る舞うかについては、ほとんど理解されていない。
ここでは、データ効率をまず研究し、多種多様なリッチソースツリーバンクからデータ制限された設定をシミュレートする。
第二に、そのような違いが本当に低リソースのセットアップに現れるかどうかをテストする。
その結果、ヘッドセレクション符号化はよりデータ効率が高く、理想的な(ゴールド)フレームワークでは性能が向上するが、実際の低リソース構成に類似した実行時のブラケットフォーマットでは、その利点は大きく失われることがわかった。
関連論文リスト
- Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Distinguishability Calibration to In-Context Learning [31.375797763897104]
そこで本研究では, PLM符号化埋め込みを新しい距離空間にマッピングすることで, 埋め込みの識別性を保証する手法を提案する。
また、双曲的埋め込みの利点を生かして、粒度の細かいクラス関連トークン埋め込み間の階層的関係を捉える。
論文 参考訳(メタデータ) (2023-02-13T09:15:00Z) - On Parsing as Tagging [66.31276017088477]
そこで我々は,現在最先端の選挙区タグであるテトラタグを減らして,シフト-リデュース解析を行う方法を示す。
我々は、線形化器、学習者、復号器の異なる選択でタグ付けパイプラインの分類を実証的に評価する。
論文 参考訳(メタデータ) (2022-11-14T13:37:07Z) - Addressing Resource and Privacy Constraints in Semantic Parsing Through
Data Augmentation [33.21612085142085]
低リソースなタスク指向のセマンティック解析のための新しいセットアップを提案する。
私たちの目標は、ユーザインタラクションを通じて収集された発話を用いて、低リソースのセマンティック拡張を改善することです。
論文 参考訳(メタデータ) (2022-05-18T01:14:47Z) - Pyramid-BERT: Reducing Complexity via Successive Core-set based Token
Selection [23.39962989492527]
BERTのようなトランスフォーマーベースの言語モデルは、様々なNLPタスクで最先端を達成しているが、計算的に禁止されている。
本稿では,従来の使用法を,理論的な結果によって正当化されたemコアセットベースのトークン選択法で置き換えるピラミッド-BERTを提案する。
コアセットベースのトークン選択技術により、高価な事前トレーニングを回避でき、空間効率の良い微調整が可能となり、長いシーケンス長を扱うのに適している。
論文 参考訳(メタデータ) (2022-03-27T19:52:01Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - On the Effectiveness of Dataset Embeddings in Mono-lingual,Multi-lingual
and Zero-shot Conditions [18.755176247223616]
モノリンガル設定、多言語設定、ゼロショット設定における予測データソースラベルにおけるデータセット埋め込みの効果を比較します。
形態素的タグ付け,補間,依存関係解析の3つのタスクを評価し,104のデータセット,66の言語,2つの異なるデータセットグループ化戦略を用いた。
論文 参考訳(メタデータ) (2021-03-01T19:34:32Z) - Source-free Domain Adaptation via Distributional Alignment by Matching
Batch Normalization Statistics [85.75352990739154]
ソースフリー設定のための新しいドメイン適応手法を提案する。
未観測のソースデータの分布を近似するために,事前学習モデルに格納されたバッチ正規化統計を用いた。
本手法は最先端のドメイン適応手法で競合性能を実現する。
論文 参考訳(メタデータ) (2021-01-19T14:22:33Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。