論文の概要: Modeling Label Correlations for Second-Order Semantic Dependency Parsing
with Mean-Field Inference
- arxiv url: http://arxiv.org/abs/2204.03619v1
- Date: Thu, 7 Apr 2022 17:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:31:23.361901
- Title: Modeling Label Correlations for Second-Order Semantic Dependency Parsing
with Mean-Field Inference
- Title(参考訳): 平均場推論を用いた二階意味依存解析のためのラベル相関のモデル化
- Authors: Songlin Yang, Kewei Tu
- Abstract要約: エンド・ツー・エンド平均場推論を用いた2次セマンティック解析は優れた性能を示した。
本研究では,隣り合う弧間のラベル相関をモデル化することで,この手法を改善することを目的とする。
この計算課題に対処するために、テンソル分解技術を利用する。
- 参考スコア(独自算出の注目度): 34.75002236767817
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Second-order semantic parsing with end-to-end mean-field inference has been
shown good performance. In this work we aim to improve this method by modeling
label correlations between adjacent arcs. However, direct modeling leads to
memory explosion because second-order score tensors have sizes of $O(n^3L^2)$
($n$ is the sentence length and $L$ is the number of labels), which is not
affordable. To tackle this computational challenge, we leverage tensor
decomposition techniques, and interestingly, we show that the large
second-order score tensors have no need to be materialized during mean-field
inference, thereby reducing the computational complexity from cubic to
quadratic. We conduct experiments on SemEval 2015 Task 18 English datasets,
showing the effectiveness of modeling label correlations. Our code is publicly
available at https://github.com/sustcsonglin/mean-field-dep-parsing.
- Abstract(参考訳): 終端平均場推論を用いた2階意味解析は優れた性能を示した。
本研究では,隣り合う弧間のラベル相関をモデル化することで,この手法を改善することを目的とする。
しかし、2階のスコアテンソルのサイズが$O(n^3L^2)$$$(n$は文長、$L$はラベルの数)であるため、直接のモデリングはメモリの爆発を引き起こす。
この計算課題に取り組むため、テンソル分解法を活用し、興味深いことに、平均場推論中に大きな二階スコアテンソルを具現化する必要がなく、従って計算の複雑さを立方体から二次に減らすことができる。
semeval 2015タスク18英語データセットについて実験を行い,ラベル相関のモデル化の有効性を示した。
私たちのコードはhttps://github.com/sustcsonglin/mean-field-dep-parsingで公開されています。
関連論文リスト
- A Statistical Analysis of Deep Federated Learning for Intrinsically Low-dimensional Data [32.98264375121064]
Federated Learning (FL)は、協調機械学習における画期的なパラダイムとして登場した。
本稿では,2段階サンプリングモデルにおけるディープフェデレート回帰の一般化特性について検討する。
論文 参考訳(メタデータ) (2024-10-28T01:36:25Z) - Joint Entity and Relation Extraction with Span Pruning and Hypergraph
Neural Networks [58.43972540643903]
PLマーカ(最先端マーカーベースピプレリンモデル)上に構築されたEREのためのHyperGraphニューラルネットワーク(hgnn$)を提案する。
エラーの伝播を軽減するため,NERモジュールからのエンティティ識別とラベル付けの負担をモデルのジョイントモジュールに転送するために,ハイリコールプルーナー機構を用いる。
EREタスクに広く使用されている3つのベンチマークの実験は、以前の最先端のPLマーカーよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-10-26T08:36:39Z) - Multi-Dictionary Tensor Decomposition [5.733331864416094]
MDTD(Multi-Dictionary Decomposition)のためのフレームワークを提案する。
我々は、完全な入力と入力の両方を欠落した値で処理する、MDTDの一般的な最適化アルゴリズムを導出する。
何十億ものテンソルの欠落した値を、最先端の競合相手よりも正確かつ精巧に説明することができる。
論文 参考訳(メタデータ) (2023-09-18T12:31:56Z) - Nearly $d$-Linear Convergence Bounds for Diffusion Models via Stochastic
Localization [40.808942894229325]
データ次元において線形である第1収束境界を提供する。
拡散モデルは任意の分布を近似するために少なくとも$tilde O(fracd log2(1/delta)varepsilon2)$ stepsを必要とすることを示す。
論文 参考訳(メタデータ) (2023-08-07T16:01:14Z) - Uncertainty Quantification of MLE for Entity Ranking with Covariates [3.2839905453386162]
本稿では,ペア比較に基づくランキング問題の統計的推定と推定について検討する。
我々は、有名なBradley-Terry-Luceモデルを拡張した新しいモデルCAREモデルを提案する。
我々は、スパース比較グラフの下で、$alpha_i*_i=1n$と$beta*$の最大確率推定器を導出する。
大規模数値研究による理論結果の検証と相互資金保有データセットへの適用について検討する。
論文 参考訳(メタデータ) (2022-12-20T02:28:27Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - FRAPPE: $\underline{\text{F}}$ast $\underline{\text{Ra}}$nk $\underline{\text{App}}$roximation with $\underline{\text{E}}$xplainable Features for Tensors [5.39764619690516]
FRAPPEは、CDDを計算することなくテンソルの正準ランクを推定する最初の方法である。
最高のパフォーマンスのベースラインよりも24倍以上高速で、合成データセット上でMAPEが10%改善されている。
論文 参考訳(メタデータ) (2022-06-19T03:19:59Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。