論文の概要: Reducing Discontinuous to Continuous Parsing with Pointer Network
Reordering
- arxiv url: http://arxiv.org/abs/2104.06239v1
- Date: Tue, 13 Apr 2021 14:32:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:47:03.844292
- Title: Reducing Discontinuous to Continuous Parsing with Pointer Network
Reordering
- Title(参考訳): Pointer Network Reorderingによる連続構文解析の不連続化削減
- Authors: Daniel Fern\'andez-Gonz\'alez and Carlos G\'omez-Rodr\'iguez
- Abstract要約: 不連続木はトークンを並べ替えることで連続変種に変換することができる。
我々は与えられた入力文の連続トークン配置を正確に生成できるポインタネットワークを開発した。
- 参考スコア(独自算出の注目度): 0.7412445894287709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discontinuous constituent parsers have always lagged behind continuous
approaches in terms of accuracy and speed, as the presence of constituents with
discontinuous yield introduces extra complexity to the task. However, a
discontinuous tree can be converted into a continuous variant by reordering
tokens. Based on that, we propose to reduce discontinuous parsing to a
continuous problem, which can then be directly solved by any off-the-shelf
continuous parser. To that end, we develop a Pointer Network capable of
accurately generating the continuous token arrangement for a given input
sentence and define a bijective function to recover the original order.
Experiments on the main benchmarks with two continuous parsers prove that our
approach is on par in accuracy with purely discontinuous state-of-the-art
algorithms, but considerably faster.
- Abstract(参考訳): 不連続構成パーサは、不連続収率を持つ構成器の存在がタスクに余分な複雑さをもたらすため、精度と速度の観点から常に連続的なアプローチに遅れを取っている。
しかし、不連続木はトークンを並べ替えることで連続変種に変換することができる。
そこで本研究では,不連続な解析を連続的な問題に還元する手法を提案する。
そこで我々は,与えられた入力文の連続トークン配置を正確に生成できるポインタネットワークを開発し,元の順序を復元するための単射関数を定義する。
2つの連続解析器による主要なベンチマークの実験では、我々のアプローチは純粋に不連続な最先端のアルゴリズムと同等だが、かなり高速である。
関連論文リスト
- A Simple Finite-Time Analysis of TD Learning with Linear Function Approximation [2.44755919161855]
マルコフサンプリングの下で線形関数近似を用いたTD学習の有限時間収束について検討する。
提案アルゴリズムでは,プロジェクションステップを実際に実行することなく,プロジェクションに基づく解析の単純さを維持することができることを示す。
論文 参考訳(メタデータ) (2024-03-04T20:40:02Z) - Mitigating the Learning Bias towards Repetition by Self-Contrastive
Training for Open-Ended Generation [92.42032403795879]
GPT2のような事前訓練された言語モデル(LM)は、繰り返しテキストを生成する傾向にあることを示す。
トークンレベルの反復確率の過大評価は学習バイアスに起因している。
LMは文レベルの繰り返しループの原因となる非繰り返しトークンよりも長い範囲依存を用いて繰り返しトークンを予測する。
論文 参考訳(メタデータ) (2023-07-04T07:53:55Z) - PROMPT WAYWARDNESS: The Curious Case of Discretized Interpretation of
Continuous Prompts [99.03864962014431]
目標タスクの微調整連続プロンプトは、フルモデルの微調整に代わるコンパクトな代替品として登場した。
実際には、連続的なプロンプトによって解決されたタスクと、最も近い隣人との間の「方向」の挙動を観察する。
論文 参考訳(メタデータ) (2021-12-15T18:55:05Z) - Discontinuous Grammar as a Foreign Language [0.7412445894287709]
構成解析のためのシーケンス・ツー・シーケンス・モデルの枠組みを拡張した。
我々は不連続性を完全に生成できるいくつかの新規化を設計する。
提案手法はまず,主要な不連続なベンチマーク上でシーケンス・ツー・シーケンス・モデルをテストする。
論文 参考訳(メタデータ) (2021-10-20T08:58:02Z) - A Continuized View on Nesterov Acceleration for Stochastic Gradient
Descent and Randomized Gossip [23.519404358187156]
連続時間パラメータで変数をインデックス化したNesterov加速度の近変種である連続Nesterov加速度を導入する。
離散化はネステロフ加速度と同じ構造であるが、ランダムパラメータを持つことを示す。
非同期ゴシップアルゴリズムの最初の厳密な高速化を提供する。
論文 参考訳(メタデータ) (2021-06-10T08:35:55Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z) - Discontinuous Constituent Parsing as Sequence Labeling [12.234169944475537]
その結果,既存の構文解析におけるラベリングが不連続性をサポートしていないことが示唆された。
入力シーケンスのほぼ順序の置換として木の不連続性を符号化することを提案する。
論文 参考訳(メタデータ) (2020-10-01T18:17:58Z) - Stochastic Approximation with Markov Noise: Analysis and applications in
reinforcement learning [0.0]
マルコフ雑音によって駆動される2つの時間スケール近似の収束解析を初めて提示する。
両方の時間スケールにおける差分包摂を限定することで、フレームワークの挙動を分析する。
ポリシ評価アルゴリズムの関数近似における最初の情報的誤差境界を求める。
論文 参考訳(メタデータ) (2020-04-08T03:59:21Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。