論文の概要: Learning from Non-Binary Constituency Trees via Tensor Decomposition
- arxiv url: http://arxiv.org/abs/2011.00860v1
- Date: Mon, 2 Nov 2020 10:06:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 10:54:35.908302
- Title: Learning from Non-Binary Constituency Trees via Tensor Decomposition
- Title(参考訳): テンソル分解による非バイナリ構成木からの学習
- Authors: Daniele Castellana, Davide Bacciu
- Abstract要約: 非バイナリ選挙区木に対処する新しいアプローチを導入する。
標準テンソル分解に基づく強力な合成関数が、そのようなリッチな構造をいかに活用できるかを示す。
異なるNLPタスクにおいて,その性能を実験的に評価する。
- 参考スコア(独自算出の注目度): 12.069862650316262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Processing sentence constituency trees in binarised form is a common and
popular approach in literature. However, constituency trees are non-binary by
nature. The binarisation procedure changes deeply the structure, furthering
constituents that instead are close. In this work, we introduce a new approach
to deal with non-binary constituency trees which leverages tensor-based models.
In particular, we show how a powerful composition function based on the
canonical tensor decomposition can exploit such a rich structure. A key point
of our approach is the weight sharing constraint imposed on the factor
matrices, which allows limiting the number of model parameters. Finally, we
introduce a Tree-LSTM model which takes advantage of this composition function
and we experimentally assess its performance on different NLP tasks.
- Abstract(参考訳): 文の構成木を双対形式で処理することは、文学において一般的かつ一般的なアプローチである。
しかし、構成木は自然にバイナリではない。
双対化の手順は構造を深く変化させ、代わりに近接している成分をさらに増やす。
本稿では,テンソルモデルを利用した非バイナリ構成木を扱うための新しい手法を提案する。
特に、標準テンソル分解に基づく強力な合成関数がそのようなリッチな構造をどのように利用するかを示す。
このアプローチの重要なポイントは、モデルパラメータの数を制限することができる因子行列に課される重み共有制約である。
最後に、この合成関数を利用するTree-LSTMモデルを導入し、異なるNLPタスクの性能を実験的に評価する。
関連論文リスト
- Bayesian post-hoc regularization of random forests [0.0]
Random Forestsは、さまざまな機械学習タスクで広く使われている強力なアンサンブル学習アルゴリズムである。
そこで本研究では,葉ノードが根に近づいた場合の信頼性パターンを活用するために,ポストホック正則化を提案する。
各種機械学習データセットを用いて,本手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-06-06T14:15:29Z) - On marginal feature attributions of tree-based models [0.11184789007828977]
辺縁的なシャプリー、オーウェンまたはバンジャフの値など、辺縁的な期待に基づく局所的な特徴属性を用いることができる。
パス依存(path-dependent)のTreeSHAPが特徴のランク付けを行うのと全く同じ関数を計算する2つの(統計的に類似した)決定木を提示する。
我々は、CataBoostモデルの余剰Shapley(およびBanzhafとOwen)値についてのみ、複雑さを改善し、内部モデルパラメータの観点からのみ、明示的な式を導出するために対称性を利用する。
論文 参考訳(メタデータ) (2023-02-16T17:18:03Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Spectral Top-Down Recovery of Latent Tree Models [13.681975313065477]
スペクトルトップダウン・リカバリ (STDR) は、大きな潜在木モデルを推定するための分割・コンカレントアプローチである。
STDRの分割ステップは非ランダムです。
代わりに、観測されたノードに関連する適切なラプラシア行列のFiedlerベクトルに基づいている。
私達はSTDRが統計的に一貫性があることを証明し、高い確率で木を正確に回復するために必要なサンプルの数を縛ります。
論文 参考訳(メタデータ) (2021-02-26T02:47:42Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Tensor Decompositions in Recursive Neural Networks for Tree-Structured
Data [12.069862650316262]
木構造データから構造知識を符号化する2つの新しい集約関数を導入する。
2つの木分類タスクでテストを行い、木外度が増加する場合に提案したモデルの利点を示す。
論文 参考訳(メタデータ) (2020-06-18T15:40:32Z) - Generalising Recursive Neural Models by Tensor Decomposition [12.069862650316262]
テンソル型定式化を利用した構造文脈のモデルアグリゲーションに対する一般的なアプローチを提案する。
パラメータ空間の大きさの指数関数的成長は、タッカー分解に基づく近似によって制御できることを示す。
これにより、隠れたサイズ、計算複雑性、モデル一般化によって制御される符号化の表現性の間のトレードオフを効果的に制御できる。
論文 参考訳(メタデータ) (2020-06-17T17:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。