論文の概要、ライセンス

# (参考訳) 分布セマンティクスにおける最小ショット学習のための依存構文解析の利用 [全文訳有]

Using dependency parsing for few-shot learning in distributional semantics ( http://arxiv.org/abs/2205.06168v1 )

ライセンス: CC BY 4.0
Stefania Preda and Guy Emerson(参考訳) 本研究では,限られた文脈文に基づいて稀な単語の意味を学習するタスクである,少数ショット学習の文脈における依存性解析情報を活用するという新しいアイデアを探求する。 まず、背景空間として依存性ベースの単語埋め込みモデルを用いて、数ショットの学習を行う。 第二に,依存性を用いることでベースラインモデルの付加性を高める,二点学習手法を提案する。

In this work, we explore the novel idea of employing dependency parsing information in the context of few-shot learning, the task of learning the meaning of a rare word based on a limited amount of context sentences. Firstly, we use dependency-based word embedding models as background spaces for few-shot learning. Secondly, we introduce two few-shot learning methods which enhance the additive baseline model by using dependencies.
公開日: Thu, 12 May 2022 15:45:10 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Using dependency parsing for few-shot learning in distributional 分散学習における依存関係解析の利用 0.69
semantics S, tefania Preda 意味論 S,tefania Preda 0.49
University College London United Kingdom ロンドン大学 イギリス 0.53
Guy Emerson University of Cambridge ガイ・エマーソン ケンブリッジ大学 0.59
United Kingdom 2 2 0 2 イギリス 2 2 0 2 0.45
y a M 2 1 y a m 2 1 である。 0.62
] L C . s c [ 1 v 8 6 1 6 0 ]LC。 sc [ 1 v 8 6 1 6 0 0.30
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
stefipredacs@gmail.c om stefipredacs@gmail.c om 0.39
gete2@cam.ac.uk gete2@cam.ac.uk 0.26
Abstract In this work, we explore the novel idea of employing dependency parsing information in the context of few-shot learning, the task of learning the meaning of a rare word based on a limited amount of context sentences. 概要 本研究では,限られた文脈文に基づいて稀な単語の意味を学習するタスクである,少数ショット学習の文脈における依存性解析情報を活用するという新しいアイデアを探求する。 0.62
Firstly, we use dependency-based word embedding models as background spaces for few-shot learning. まず、背景空間として依存性ベースの単語埋め込みモデルを用いて、数ショットの学習を行う。 0.55
Secondly, we introduce two few-shot learning methods which enhance the additive baseline model by using dependencies. 第二に,依存性を用いることでベースラインモデルの付加性を高める,二点学習手法を提案する。 0.69
Introduction 1 Distributional semantics models create word embeddings based on the assumption that the meaning of a word is defined by the contexts it is used in (for an overview, see: Sahlgren, 2008; Lenci, 2018; Boleda, 2020; Emerson, 2020). はじめに 1 分布意味論モデルは、単語の意味が使用される文脈によって定義されるという仮定に基づいて単語の埋め込みを作成する(概要は、Sahlgren, 2008; Lenci, 2018; Boleda, 2020; Emerson, 2020)。 0.66
A fundamental challenge for these approaches is the difficulty of producing high-quality embeddings for rare words, since the models often require vast amounts of training examples (Adams et al , 2017; Van Hautte et al , 2019). これらのアプローチの根本的な課題は、モデルが大量のトレーニング例を必要とする場合が多いため、レアな単語のための高品質な埋め込みを作るのが難しいことである(adams et al , 2017; van hautte et al , 2019)。
訳抜け防止モード: これらのアプローチに対する根本的な課題は 希少語のための高品質な埋め込みを生成する モデルには膨大なトレーニング例を必要とすることが多い(adams et al, 2017; van hautte et al)。 2019 ) .
0.75
To address this problem, various few-shot learning methods have been previously introduced. この問題に対処するために、これまでに様々な数発の学習手法が導入された。 0.55
The goal of a few-shot learning technique is to learn an embedding that captures the meaning of a word, given only a few context sentences. 数発の学習技術の目標は、いくつかの文脈文のみを考慮し、単語の意味を捉えた埋め込みを学習することである。 0.74
The rare word’s vector has to be placed in an existing background space of embeddings. 稀な単語のベクトルは、既存の埋め込みの背景空間に置かれなければならない。 0.78
Few-shot learning in distributional semantics is a relatively underexplored area, with important practical applications. 分布意味論におけるショットラーニングは、比較的未探索の分野であり、重要な実践的応用がある。 0.51
Having good representations of rare words is highly desirable in applications aiming to understand dialects or regionalisms, as well as specific technical language. 稀な単語の表現が良いことは、方言や地域主義を理解することを目的としたアプリケーションや特定の技術言語において非常に望ましい。 0.67
In this work, we explore the idea of incorporating information from the dependency parse of sentences in the context of few shot-learning. 本研究では,ショット学習の文脈における文の係り受け解析から情報を取り込むことについて検討する。 0.63
An intuition why this might be useful is provided in Figure 1. なぜこれが役に立つのか直観は図1で示されます。 0.65
In the given sentence, the most relevant word for inferring the meaning of the target rare word “conflagration" is “destroyed". 与えられた文において、対象のレアな単語 "conflagration" の意味を推測する最も関係のある単語は "destroyed" である。 0.74
Even if this word is located far from the target, it is directly connected to it through a nominal subject dependency. たとえこれが wordはターゲットから遠く離れた位置にあり、名目上の依存関係を通じて直接接続される。 0.76
Moreover, the fact that the target word is used in a certain dependency structure might reveal important characteristics related to its meaning. さらに、対象語が特定の係り受け構造で使用されるという事実は、その意味に関する重要な特徴を明らかにするかもしれない。
訳抜け防止モード: さらには 対象語は特定の依存構造で使用される その意味にかかわる重要な特徴が明らかになるかもしれない。
0.81
Since in the case of few-shot learning the data is limited, using dependency parsing information is a resource with great potential to boost existing models. 数少ない学習の場合、データは限られているため、依存解析情報を使うことは、既存のモデルを強化する大きな可能性を持つリソースである。 0.71
As a first effort in this direction, this work provides three contributons. この方向の最初の取り組みとして、この作品には3つの貢献がある。 0.62
Firstly, we explore the effect of using dependency-based word embeddings as background spaces. まず,背景空間として依存性に基づく単語埋め込みを用いることの効果を検討する。 0.67
Secondly, we introduce new few-shot learning methods leveraging the dependency parsing information. 第2に,依存性解析情報を活用した新しいマイナショット学習手法を提案する。 0.61
Lastly, we update a previous dependency-based background model to make it more suitable for few-shot learning. 最後に、依存関係ベースのバックグラウンドモデルを更新して、数ショットの学習にもっと適するようにします。 0.56
2 Background: dependency-based word 2 背景:依存性ベースの単語 0.69
embeddings The widely-used Skip-Gram model introduced by Mikolov et al (2013) takes the contexts of a word to be those words surrounding it in a pre-defined window size. 埋め込み mikolov et al (2013) によって導入された広く使われているスキップグラムモデルは、単語の文脈を予め定義されたウィンドウサイズで囲む単語とする。 0.64
The model learns the embeddings in an unsupervised manner, using a feed-forward neural network trained on large amounts of sentences. モデルは大量の文で訓練されたフィードフォワードニューラルネットワークを用いて、教師なしの方法で埋め込みを学習する。 0.73
Levy and Goldberg (2014) proposed a different way to construct the contexts of a target word in the training process of the Skip-Gram model. Levy and Goldberg (2014) は、Skip-Gramモデルのトレーニングプロセスにおいて、ターゲット語のコンテキストを構築する別の方法を提案した。 0.75
Instead of taking the words from a pre-defined window, one takes the words that are connected to the target word by a syntactic dependency. 事前に定義されたウィンドウから単語を取る代わりに、構文的依存によって対象単語に接続された単語を取る。 0.78
The contexts were defined as the concatenation of the connected word and the label of the dependency. 文脈は接続された単語の結合と依存関係のラベルとして定義される。 0.81
This allowed the model to differentiate between same words used in different syntactic roles. これにより、モデルは異なる構文の役割で使われる同じ単語を区別することができた。 0.63
The dependency-based word embeddings were found to be better at capturing similarity, while the window-based models capture relatedness. 依存性ベースの単語埋め込みは類似性を捉えるのに優れており、ウィンドウベースのモデルは関連性を捉えている。
訳抜け防止モード: 係り受けに基づく単語埋め込みが発見された 類似点を捉え 一方、ウィンドウベースのモデルは関連性をキャプチャします。
0.62
For example, a dependency-based model would produce close embeddings for “Rome” and “Florence”, which are syntactically similar since they can be 例えば、依存性ベースのモデルは、“Rome”と“Florence”の密接な埋め込みを生成します。
訳抜け防止モード: 例えば、依存性ベースのモデルは、“ローマ”の密接な埋め込みを生成する。 Florence ” は構文的に似ている。
0.67
英語(論文から抽出)日本語訳スコア
det amod relcl det アモッド レルク 0.46
nsubj The nsubj その... 0.31
severe conflagration which 厳しい conflagration (複数形 conflagrations) 0.37
affected Troy on 影響を受けたトロイ オン 0.53
10 May 1862 destroyed 507 5月10日 1862年(文久2年)507年 0.43
buildings. Figure 1: A dependency parse, illustrating that context words connected by a dependency can be important for inferring meaning in a few-shot setting, such as “destroyed” for the rare word “conflagration”. 建物だ 図1: 依存構文解析(dependency parse) 依存関係によって接続されたコンテキストワードは、レアな単語 “conflagration” の “destroyed” のような、数秒の設定で意味を推測する上で重要であることを示します。 0.65
used in the same grammatical contexts, while a window-based model is likely to place closely the embedding of highly related terms such as “Rome" and “ancient", even if they cannot be used interchangeably since they are different parts of speech. 同じ文法の文脈で使用されるのに対し、ウィンドウベースのモデルでは、「ローム」や「古代」のような非常に関連性の高い用語の埋め込みが密接な位置にある可能性が高い。
訳抜け防止モード: 同じ文法の文脈で使われるが、ウィンドウベースのモデルは「ローマ」や「古代」のような高度に関連する用語の埋め込みを密に配置する可能性が高い。 音声の異なる部分であるため、相互に使用できない場合もあります。
0.76
Levy and Goldberg’s model successfully captured syntactic similarity, but failed to express how different dependency types affect relations between words. LevyとGoldbergのモデルは構文的類似性をうまく捉えたが、異なる依存型が単語間の関係にどのように影響するかを表現できなかった。 0.62
Moreover, it introduced sparsity issues. さらに、スパシティー問題も導入した。 0.54
Czarnowska et al (2019) developed the Dependency Matrix model to address these shortcomings. Czarnowska et al (2019) はこれらの欠点に対処する Dependency Matrix モデルを開発した。 0.76
Instead of incorporating the dependency labels in the context vocabulary, each dependency type d is associated with a matrix Td, which acts as a meaning representation of the link between the target and the context words. 依存関係ラベルをコンテキスト語彙に組み込む代わりに、それぞれの依存型dは、ターゲットとコンテキストワードの間のリンクの意味表現として機能するマトリックスTdに関連付けられている。 0.77
The matrices Td, as well as the vectors holding the target vectors e and context vectors o, are learned during training. 訓練中に、行列td、および対象ベクトルeおよび文脈ベクトルoを保持するベクトルを学習する。 0.62
Let D be the set of training examples given by tuples of target word t, context word c and dependency type d. d を対象語 t,コンテキスト語 c,依存関係型 d のタプルで与えられるトレーニング例のセットとする。 0.72
For each tuple, we generate a set D(cid:48) of negative samples (t, c(cid:48), d) by drawing context words c(cid:48) from a noise distribution and maintaining the same target word t and dependency type d. 各タプルに対して、雑音分布から文脈語c(cid:48)を描画し、同じターゲット語tと依存型dを維持することにより、負のサンプル(t,c(cid:48,d)の集合D(cid:48)を生成する。 0.77
The learning goal is to maximise the function in (1), where σ is the sigmoid function and et and oc are the vectors of the target and context word. 学習の目的は、σ がシグモイド関数であり、et と oc が対象語と文脈語のベクトルである(1) の関数を最大化することである。 0.77
(cid:88) (cid:16) (cid:88) (出典:16) 0.53
(t,c,d)∈D (cid:88) (t,c,d)大D (cid:88) 0.38
log σ(ut,c,d) + log σ(ut,c,d) + 0.42
log σ(−ut,c(cid:48),d) log σ(−ut,c(cid:48),d) 0.49
(t,c(cid:48),d)∈D(cid:48) (t,c(cid:48,d)・D(cid:48) 0.42
ut,c,d = et · Td · oc ut,c,d = et · Td · oc 0.43
(cid:17) (1) (cid:17) (1) 0.41
(2) 3 Background: few-shot learning As a straight-forward yet successful baseline, the vector of the rare word is estimated by the sum of the vectors of the words in contexts, as proposed by Lazaridou et al (2017) and Herbelot and Baroni (2017). (2) 背景: 少数ショット学習 最前線で成功したベースラインとして、レアワードのベクトルは、Lazaridou et al (2017) と Herbelot and Baroni (2017) によって提案された文脈における単語のベクトルの和によって推定される。 0.62
The latter noticed that not including the stop-words greatly improves the performance on the evaluation tasks. 後者は、停止語を含まないことで、評価タスクのパフォーマンスが大幅に改善されることに気付いた。
訳抜け防止モード: 後者は 停止は含まない - 単語は評価タスクのパフォーマンスを大幅に改善する。
0.65
To optimise the performance of the additive model, Van Hautte et al (2019) proposed weighting the context words according to distance and frequency, as well as subtracting a “negative sampling” vector. 加法モデルの性能を最適化するため、Van Hautte et al (2019) は文脈語を距離と周波数に応じて重み付けし、「負サンプリング」ベクトルを減算する提案を行った。 0.81
These modifications take hyperparameters that are important for SkipGram’s strong performance, such as number of negative samples k and window size n (Levy et al , 2015), and apply them to the few-shot setting. これらの修正 SkipGramの強いパフォーマンス、例えば負のサンプルの数 k とウィンドウサイズ n (Levy et al , 2015) に重要なハイパーパラメータを取り、いくつかのショット設定に適用する。 0.69
For each word w in the vocabulary V , with frequency f (w) and distance m from the target rare word t, and for a frequency threshold τ, we calculate the subsampling weight s(w), the window weight r(w) and negative sampling coefficient n(w). 語彙V内の各単語wに対して、対象のレアワードtからの周波数f(w)と距離mを有し、周波数閾値τに対して、サブサンプリングウェイトs(w)、ウィンドウウェイトr(w)、負のサンプリング係数n(w)を算出する。 0.69
s(w) = min s(w) = min 0.42
1, r(w) = max 1, r(w) = max 0.42
0, (cid:18) (cid:16) 0, (出典:18)(出典:16) 0.53
(cid:114) τ (cid:114)τ 0.39
(cid:19) f (w) (cid:19) f (複数形 fs) 0.54
n − m + 1 n n − m + 1 n 0.43
(cid:80) f (w)0.75 w∈V f (w)0.75 (cid:80) f (w)0.75 wservletv f (w)0.75 0.40
n(w) = (cid:17) n(w) = (cid:17) 0.41
(3) (4) (5) (3) (4) (5) 0.43
Assume C is the collection of non-stop context words for the given target rare word t and vc is the vector in the background space for each c ∈ C. The vector of the target rare word t will is: 仮定 C は与えられた対象のレアワード t に対する非ストップ文脈語の集合であり、vc は各 c ∈ C に対する背景空間のベクトルである。 0.62
vt = vadd c vt = vadd (複数形 vadds) 0.36
vadd c = s(c)r(c) vadd c = s(c)r(c) 0.43
(cid:16) where (出典:16) どこに 0.67
vc − k (cid:88) vc − k (cid:88) 0.41
w∈V (cid:17) wwv (cid:17) 0.31
(6) (7) n(w)vw (6) (7) n(w)vw である。 0.52
(cid:88) c∈C (cid:88) c・C 0.30
More involved models have been proposed for the task of few-shot learning. 数発学習のタスクには、より関連するモデルが提案されている。 0.59
Khodak et al (2018) introduced A La Carte, which applies a linear transformation to the sum of the context words obtained by the additive model. Khodak et al (2018) は、加法モデルによって得られる文脈語の和に線形変換を適用する A La Carte を導入した。 0.74
The weights of the linear transformation are optimised based on the cooccurrence matrix of the corpus. 線形変換の重みはコーパスの共起行列に基づいて最適化される。 0.67
Van Hautte et al (2019) takes this approach further in the Neural A La Carte model, by using a neural network with a hidden layer to produce a non-linear transformation matrix, which adds flexibility. Van Hautte氏ら(2019)は、ニューラルネットワークと隠れた層を使って非線形変換行列を生成することにより、Neural A La Carteモデルにおいてこのアプローチをさらに進めている。 0.79
The meaning of a rare word can often be deduced from the word form itself. まれな単語の意味は、しばしば単語の形そのものから導かれる。 0.67
This information has been leveraged in few-shot learning models. この情報は、少数の学習モデルで活用されている。 0.65
For example, the Form-Context Model (Schick and Schütze, 2019) is a hybrid method which retrieves the weighted sum between the surface form embedding of the rare word, obtained using FastText 例えば、Form-Context Model (Schick and Schütze, 2019) は、FastTextを用いて得られた稀な単語の表面フォーム埋め込みの間の重み付け和を検索するハイブリッド手法である。 0.82
英語(論文から抽出)日本語訳スコア
(Bojanowski et al , 2017) and the context-based embedding, produced using the A La Carte model. (Bojanowski et al , 2017)とA La Carteモデルを用いたコンテキストベースの埋め込み。 0.73
In this paper, we focus on additive methods, which do not require additional training on fewshot learning examples. 本稿では,少数の学習例に対する追加学習を必要としない付加的手法に着目した。 0.75
This keeps the inference fast and in line with the true few-shot learning setting proposed by Perez et al (2021). これは、Perez et al (2021) によって提案された真の数発の学習設定と一致する。 0.63
4 Dependency-based FSL methods Dependency relations proved to be an informative tool in the context of creating distributional semantics models. 4 依存性ベースの fsl メソッド 依存性関係は,分布意味論モデルを作成する上で有用なツールであることが証明された。
訳抜け防止モード: 4 依存性-ベース FSL メソッド 依存性関係が証明された。 分散セマンティクスモデルを作成する文脈における情報ツールとなること。
0.62
Based on this success, we introduce two dependency-based few-shot learning methods which build on top of the Additive model. この成功を踏まえて,加算モデル上に構築する2つの依存関係ベースのマイナショット学習手法を提案する。 0.73
In this section, we assume we have already trained a background space of embeddings vi for each word i. この節では、各単語 i に対して埋め込み vi の背景空間を既に訓練していると仮定する。 0.68
In our setup, we chose to consider only the target embeddings learnt by the aforementioned background models, i.e. vi = ei. 設定では、上記の背景モデル、すなわちvi = eiで学習したターゲット埋め込みのみを考慮することにしました。
訳抜け防止モード: 私たちの設定では、私たちは選択しました 上記の背景モデルで学習したターゲット埋め込みのみを考慮する。
0.78
Alternatively, one could use the concatenation of the target and context embeddings. あるいは、ターゲットとコンテキストの埋め込みの結合を利用することもできる。 0.77
Dependency Additive Model The starting point of our methods is the assumption that the closer a word is to the target word in the dependency graph, the more relevant it is for inferring the target’s meaning, as seen in Figure 1. 依存性付加モデル 我々のメソッドの出発点は、単語が依存関係グラフのターゲット語に近ければ近いほど、その単語がターゲットの意味を推測するのにより関連があるという仮定です。
訳抜け防止モード: 依存性付加モデル 私たちのメソッドの出発点は、より近い方が近いという仮定です 単語は依存グラフのターゲット語を指します。 関連性が高ければ高いほど 図1に示すように、ターゲットの意味を推測する。
0.80
Our method assigns weights for each word in the sentence by considering the distances from the rare word in the dependency parse. 本手法では,係り受け解析における希少語との距離を考慮し,文中の単語毎に重みを割り当てる。 0.68
For each context word c, let dc be the number of dependency links from the target rare word t to c in the parse. 各文脈語c に対して、dc をパース中の対象の稀な単語t から c への依存リンク数とする。
訳抜け防止モード: 各文脈の単語 c について、 dc はパース内のターゲットのレアワード t から c への依存性リンクの数である。
0.72
Note that we consider links in both directions. 両方向のリンクを考慮することに注意してください。 0.62
The inferred vector vt of the rare word is the weighted sum of the vectors of context words, where the weight wc of each context word c is given in (8). 希少語の推定ベクトル vt は文脈語のベクトルの重み和であり、各文脈語 c の重み wc は (8) で与えられる。
訳抜け防止モード: レアワードの推測ベクトル vt は文脈単語のベクトルの重み付け和である。 ここでは、各文脈語 c の重量 wc が (8) に与えられる。
0.72
The weight is chosen so that it is inversely proportional to the distance from the target, and we add 1 in order to avoid discarding context words which are far from the target in the dependency tree. 対象からの距離に逆比例するように重みが選択され、依存木において対象から遠く離れた文脈語を捨てるのを避けるために1を加える。 0.66
vt = wcvadd vt = wcvadd 0.43
c where wc = 1 + c ここでwc = 1 + 0.53
1 dc (8) Initially, we experimented with simply applying the coefficients wc on the vectors of the context words vc. 1直流 (8) まず,文脈単語vcのベクトルに対して係数wcを単純に適用することを試みた。 0.55
However, a better performance was achieved when we incorporated the the weighting steps in (7), so we used vadd Dependency Matrix Additive Model The Dependency Additive model above does not take into しかしながら、(7)に重み付けステップを組み込むことでパフォーマンスが向上したので、vadd Dependency Matrix Additive Modelを使用しました。
訳抜け防止モード: しかし、パフォーマンスは向上した。 重み付けステップを (7) に組み込んだ。 そこで我々は、上記の依存性加法モデルが適用しないvadd依存性行列加法モデルを使いました。
0.70
instead of vc. c vcの代わりに。 c 0.60
(cid:88) c∈C (cid:88) c・C 0.30
account the type of dependency on each edge in the graph, which, as we have seen, plays an important role in capturing the meaning of the words in relation to each other. グラフの各エッジへの依存性のタイプを考慮に入れます。これは、私たちが見てきたように、単語の意味を互いに関連付ける上で重要な役割をします。 0.76
We thus devised a strategy to make use of this information. そこで我々はこの情報を活用する戦略を考案した。 0.80
Czarnowska et al proposed the idea of using the learnt dependency matrices of the Dependency Matrix model for the task of semantic composition, by multiplying word embdeddings with matrices over chains of dependencies. Czarnowskaらは、依存関係の連鎖上の行列に単語埋め込みを乗じることで、意味構成のタスクに依存性行列モデルの学習した依存行列を使用するというアイデアを提案した。 0.69
We apply the same idea in the context of few-shot learning. 同じアイデアを、最小限の学習のコンテキストに適用します。 0.63
More precisely, instead of giving a weight for each vector of a context word, we multiply it with corresponding dependency matrices on the chain of dependencies from the target to the context. より正確には、コンテキストワードの各ベクトルに重みを与える代わりに、ターゲットからコンテキストへの依存関係のチェーンに対応する依存性行列を乗算します。 0.68
To be able to do this based on the original Dependency Matrix model, we would have to take into account that when we advance in the dependency parse, we have to switch between using the context vector (retrieved from o) and target vector (retrieved from e). もともとの依存性マトリックスモデルに基づいてこれを実現できるためには、依存性のパースを前進させるとき、コンテキストベクトル(oから取得)とターゲットベクトル(eから取得)を切り替える必要があることを考慮しなければなりません。 0.73
To simplify this process, we modified the Dependency Matrix model to use only one embedding per word, instead of separate context and target embeddings.1 このプロセスを単純化するために、我々は、コンテキストとターゲットの埋め込みではなく、単語ごとの埋め込みのみを使用するように依存性行列モデルを修正した。
訳抜け防止モード: このプロセスを単純化する。 Dependency Matrix モデルを修正しました to use one embeddedding per word, instead to separate context and target embeddeds.1
0.82
This also reduces the training time of the model. これにより、モデルのトレーニング時間も短縮される。 0.70
More precisely, we have the same training loss as in (1), but (2) is replaced by: より正確には、(1)と同じトレーニング損失がありますが、(2)は以下に置き換えられます。 0.72
ut,c,d = vt · Td · vc ut,c,d = vt · Td · vc 0.42
(9) Having trained this model, we then make use of the matrices Td, optimised for each dependency type (9) このモデルをトレーニングした後、依存関係タイプ毎に最適化された行列Tdを使用します。 0.55
d. For the target rare word t and each nonstop context word c, Let D(t, c) be the path of dependency types from t to d) 対象の稀な単語 t と各非ストップコンテキスト語 c に対して、D(t, c) を t から t への依存型のパスとする。 0.84
c. The vector of the target rare word is calculated as: c) 対象の希少語のベクトルを次のように算出する。 0.65
(cid:88) c∈C (cid:88) c・C 0.30
vt = v(cid:48) c where v(cid:48) vt = v(cid:48) c ここで v(cid:48) 0.41
c =  (cid:89) c = ※(第89回) 0.44
Td d∈D(t,c) Td d・D(t,c) 0.38
 vadd c (10) シュ・ヴァッダ c (10) 0.37
5 Experiments In our setup, we considered three background models: window-based Skip-Gram, dependency-based Skip-Gram and the modified Dependency Matrix model which only uses one embedding for each 設定では、ウィンドウベースのスキップグラム、依存性ベースのスキップグラム、および各組込みのみを使用する修正された依存性マトリックスモデルという3つのバックグラウンドモデルを検討しました。
訳抜け防止モード: 5 実験 私たちの設定では、3つの背景モデルを検討した。 依存性 - ベースのSkip - Gramと修正された依存性マトリックスモデル。
0.63
1This cannot be applied to Skip-Gram without causing every word to predict itself as a context. 1これは全ての単語を文脈として予測させることなくスキップグラムに適用できない。 0.60
To allow Skip-Gram to use only one vector per word, Zobnin and Elistratova (2019) propose using an indefinite inner product, which corresponds to T in (9) being a diagonal matrix of 1s and −1s. Skip-Gram がワード当たりのベクトルを 1 個だけ使用できるようにするため、Zobnin と Elistratova (2019) は 1s と −1s の対角行列である T in (9) に対応する不定内積の使用を提案する。 0.80
In a similar vein, Bertolini et al (2021) propose a more radical simplification of the Dependency Matrix model, which uses matrices that are non-zero only on the diagonal and off-diagonal. 同様の例では、Bertolini et al (2021) は、対角線と対角線でのみゼロでない行列を使用する依存行列モデルのより急進的な単純化を提案している。 0.69
英語(論文から抽出)日本語訳スコア
Backgr. Model FSL Model バックグル モデルFSLモデル 0.64
DN Chimera Skip-Gram DN チメラ スキップグラム 0.46
Dependency Skip-Gram Dependency Matrix 依存性スキップグラム依存性マトリックス 0.44
L3 MRR MR L2 16 Additive 0.010 5312 0.12 0.19 0.20 0.11 0.12 0.13 0.15 0.15 Dep. L3 MRR MR L2 16 添加 0.010 5312 0.12 0.19 0.20 0.11 0.12 0.13 0.15 0.15 デップ。 0.46
Additive 0.021 4007 0.13 0.20 0.21 0.12 0.13 0.14 0.15 0.16 Additive 0.023 4671 0.14 0.21 0.21 0.11 0.14 0.15 0.16 0.17 Dep. Additive 0.021 4007 0.13 0.20 0.21 0.12 0.13 0.14 0.15 0.16 Additive 0.023 4671 0.14 0.21 0.21 0.11 0.14 0.15 0.16 0.17 Dep. 0.24
Additive 0.027 3785 0.16 0.21 0.23 0.12 0.15 0.16 0.17 0.18 Additive 0.017 3367 0.13 0.23 0.25 0.15 0.17 0.20 0.22 0.22 Dep. Additive 0.027 3785 0.16 0.21 0.23 0.12 0.15 0.16 0.17 0.18 Additive 0.017 3367 0.13 0.23 0.25 0.15 0.17 0.20 0.22 0.22 Dep. 0.24
Additive 0.034 3140 0.14 0.26 0.29 0.18 0.20 0.22 0.24 0.25 0.019 3163 0.15 0.24 0.31 0.16 0.20 0.20 0.21 0.22 DM Additive Additive 0.034 3140 0.14 0.26 0.29 0.18 0.20 0.22 0.24 0.25 0.019 3163 0.15 0.24 0.31 0.16 0.20 0.20 0.21 0.22 DM Additive 0.24
L6 8 1 2 CRW L6 8 1 2 CRW 0.42
4 Table 1: Results for different combinations of background and few-shot learning model, on three evaluation datasets. 4 表1:3つの評価データセットで、背景と少数ショット学習モデルの異なる組み合わせについての結果。 0.58
The best result for each column is marked in bold. 各列の最良の結果は太字で示される。 0.68
Higher is better for all columns except MR. MR以外の全てのカラムでは高い方がよい。 0.69
word. To allow a direct comparison, we trained them all on the WikiWoods (Flickinger et al , 2010) snapshot of English Wikipedia. 言葉だ 直接比較できるように、われわれはWikiWoods (Flickinger et al , 2010) の英語版ウィキペディアのスナップショットでこれら全てをトレーニングした。 0.55
The same hyperparameters were used: a dimensionality of 100, 15 negative samples, a batch size of 5, and an Adagrad optimiser with an initial learning rate of 0.025. 同じハイパーパラメータは、100の次元、15の負のサンプル、5のバッチサイズ、初期学習率0.025のアダグラードオプティマイザーを用いていた。 0.61
For the dependency models, we used the universal dependency parser provided by spaCy (Honnibal et al , 2020). 依存性モデルでは、paCy(Honnibal et al , 2020)が提供するユニバーサル依存性パーサを使用しました。 0.63
We applied the two few-shot methods we devised, as well as the Additive model with window weighting, subsampling and negative sampling described in §3. 提案手法は, ウィンドウ重み付け, サブサンプリング, 陰性サンプリングを伴う加算モデルとともに, 考案した2つの数ショット法を適用した。 0.69
The hyperparameters were t = 10−6, k = 15 and n = 5. ハイパーパラメータは t = 10−6, k = 15, n = 5 である。 0.84
5.1 Few-shot learning tasks Definitional Nonce (DN) This task (Herbelot and Baroni, 2017) provides a single definition sentence for each test word. 5.1 Few-shot Learning Task Definitional Nonce (DN) このタスク(Herbelot and Baroni, 2017)は、各テストワードに対して単一の定義文を提供する。 0.77
The test words are frequent words, which have gold vectors of high quality in the background space. テスト語は頻繁に使われる単語で、背景空間に高品質の金のベクターがある。 0.73
At evaluation time, a new vector is computed for each test word, based on the few-shot learning model. 評価時には、数発の学習モデルに基づいて、テストワード毎に新しいベクトルが計算される。 0.78
The rank of the gold vector relatively to the inferred vector is then calculated, i.e.the number of words from the vocabulary which are closer to the inferred vector than the gold vector is. 次に、推定ベクトルに対して相対的に金ベクトルのランクが算出され、すなわち、金ベクトルよりも推定ベクトルに近い語彙からの単語の数が計算される。 0.82
The distance metric is cosine similarity - the bigger the similarity, the smaller the distance. 距離メートル法はコサイン類似度であり、類似度が大きいほど距離が小さい。 0.76
The metrics retrieved are the Mean Reciprocal Rank (MRR) and median rank. 得られた指標は平均相互ランク(MRR)と中央値である。 0.74
Chimera The Chimera task (Lazaridou et al , 2017) provides non-existing words (chimeras) with 6 context sentences, as well as similarity scores between the chimera and other existing words. chimera the chimera task (lazaridou et al , 2017)は6つの文脈文を含む非既存の単語 (chimeras) と、chimeraと他の既存の単語との類似度スコアを提供する。 0.79
The way in which the dataset was built simulates fewshot learning for humans, since the participants of the experiment needed to infer the meaning of a word they never saw before and rate its similarity with other concepts, based only on the 6 context 実験の参加者は、これまで見たことのない単語の意味を推測し、他の概念との類似度を6つのコンテキストのみに基づいて評価する必要があるため、データセットが構築された方法が人間のための少数ショット学習をシミュレートする。
訳抜け防止モード: データセットが構築された方法は、人間の数発の学習をシミュレートする。 実験の参加者は 今まで見たことのない言葉の意味を 他の概念との類似性を6つの文脈に基づいて評価します
0.82
sentences. Trials with 2, 4 and 6 context sentences are conducted. 文だ 2、4、6の文脈文による裁判が行われる。 0.48
After each trial, the similarity scores between the inferred vector and the vectors of the words provided is compared against the human similarity scores by retrieving the Spearman’s rank correlation coefficient. 各試行の後、推定ベクトルと提供される単語のベクトルとの類似度スコアを、スピアマンのランク相関係数を取得することにより、人間の類似度スコアと比較する。 0.75
Contextual Rare Words (CRW) Like Chimera, the CRW task (Khodak et al , 2018) is based on human ratings between pairs of words. 文脈レアワード(CRW) Chimeraと同様、CRWタスク(Khodak et al , 2018)は、単語のペア間の人間の評価に基づいている。 0.82
This time the pairs contain a rare word and a frequent one, with an assumed reliable embedding in the background model. このペアには稀な単語と頻繁な単語が含まれており、背景モデルに信頼できる埋め込みが想定されている。 0.66
For each rare word, 255 context sentences are provided. まれな単語ごとに255の文脈文が提供される。 0.68
The vector is generated using the few-shot model for 1, 2, 4, 8, 16 context sentences, selected at random. このベクトルは、ランダムに選択された1, 2, 4, 8, 16の文脈文のマイショットモデルを用いて生成される。
訳抜け防止モード: ベクトルは1のショットモデルを使って生成される。 2, 4, 8, 16 の文脈文をランダムに選択した。
0.83
For each such experiment, the similarity scores between the few-shot vector and the background embedding of the non-rare word are calculated and compared against the human scores using the Spearman’s rank correlation coefficient. これらの実験毎に、スピアマンのランク相関係数を用いて、少数ショットベクトルと非希土類単語の背景埋め込みとの類似度スコアを算出し、人間のスコアと比較する。
訳抜け防止モード: そのような実験ごとに、数少ない-ショットベクトル間の類似度スコア 非まれな単語の背景埋め込みを計算し そして、Spearmanのランク相関係数を用いて人間のスコアと比較した。
0.77
The scores are averaged out across 10 random selections of context sentences. スコアは、文脈文の10のランダムな選択で平均される。 0.77
5.2 Results and Discussion The results in Table 1 show that the dependencybased background models performed better than window-based Skip-Gram on all three evaluation tasks. 5.2 結果と考察 表1の結果,3つの評価作業において,依存性ベースのバックグラウンドモデルはウィンドウベースのSkip-Gramよりも優れていた。 0.66
For all background models, applying the Dependency Additive technique consistently improved the results of the Additive model. すべてのバックグラウンドモデルに対して、Dependency Additiveテクニックを適用して、Additiveモデルの結果を一貫して改善した。
訳抜け防止モード: すべての背景モデル。 Dependency Additive テクニックを適用する Additiveモデルの結果は一貫して改善されている。
0.70
For the DN task and DM background model, there were three cases where the Additive model gave a rank of over 30,000, while the Dependency Additive model gave a rank of 1 or 2, showing the method’s potential for sentences of specific structures. DNタスクとDMバックグラウンドモデルでは、Additiveモデルが30,000以上のランクを与え、Dependency Additiveモデルが1または2のランクを与え、特定の構造の文に対するメソッドの可能性を示した3つのケースがあった。 0.75
The DM additive model showed a promising result for the Chimera task, but was still outperformed by the Dependency Additive model, and its scores had the biggest variance across all combinations. DM加算モデルは, キメラ課題において有望な結果を示したが, 依存性付加モデルでは依然として優れており, そのスコアはすべての組み合わせで最大のばらつきを持っていた。 0.69
This これ 0.73
英語(論文から抽出)日本語訳スコア
suggests that more careful weighting might be required. より慎重な重み付けが必要かもしれない。 0.68
6 Conclusion We investigated the use of dependency information for few-shot learning in distributional semantics. 6結論 分布意味論における数点学習における依存情報の利用について検討した。 0.63
We found that dependency-based contexts are more useful than window-based contexts, with better performance across three evaluation datasets. 依存性ベースのコンテキストはウィンドウベースのコンテキストよりも有用であり、3つの評価データセットのパフォーマンスが向上することがわかった。 0.57
We proposed a simplified version of the Dependency Matrix model, using only one vector per word, which makes it easier to apply in a few-shot setting. 我々は,1ワードあたり1ベクトルしか使用せず,数ショット設定で簡単に適用できる依存性行列モデルの簡易版を提案した。 0.79
An important next step would be to investigate the use of the proposed methods for other languages, since our work was limited to English data and it is possible that the dependency structure is more relevant for few-shot learning in the case of specific languages. 我々の研究は英語データに限られており、特定の言語の場合、依存関係構造がより重要になる可能性があるため、他の言語に対する提案手法の使用を検討することが重要なステップとなる。 0.81
In order to do such an analysis, one would additionally need to create test data for the few shot-learning tasks, which would require the participation of speakers of the selected languages. このような分析を行うには、いくつかのショット学習タスクのためのテストデータを作成する必要がある。
訳抜け防止モード: このような分析を行うには、いくつかのショット - 学習タスクのためのテストデータを作成する必要がある。 これは選択された言語の話者の参加を必要とする。
0.74
In future work, performance might be further improved by training an A La Carte model (discussed in §3), where the use of dependencies would make it possible to use a graph-convolutional network (Marcheggiani and Titov, 2017). 将来の作業では、A La Carteモデルをトレーニングすることでパフォーマンスがさらに向上し、依存関係の使用によってグラフ畳み込みネットワークの使用が可能になる( Marcheggiani と Titov, 2017)。 0.65
References Oliver Adams, Adam Makarucha, Graham Neubig, Steven Bird, and Trevor Cohn. Oliver Adams、Adam Makarucha、Graham Neubig、Steven Bird、Trevor Cohnなどを参照。 0.76
2017. Cross-lingual word embeddings for low-resource language modelIn Proceedings of the 15th Conference of the ing. European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 937–947, Valencia, Spain. 2017. 低リソース言語モデルのための言語間単語埋め込み ing. the 15th Conference of the ing. European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, page 937–947, Valencia, Spain
訳抜け防止モード: 2017. 低言語モデルのためのクロス-言語単語埋め込み ing 15th Conference of the ing . European Chapter of the Association for Computational Linguistics : Volume 1 長文、937-947頁、バレンシア、スペイン。
0.59
Association for Computational Linguistics. Lorenzo Bertolini, Julie Weeds, David Weir, and Qiwei Peng. 計算言語学会会員。 Lorenzo Bertolini、Julie Weeds、David Weir、Qiwei Peng。 0.43
2021. Representing syntax and composition with geometric transformations. 2021. 幾何学変換による構文と構成の表現。 0.56
In Findings of the Association for Computational Linguistics: ACLIJCNLP 2021, pages 3343–3353, Online. association for computational linguistics: aclijcnlp 2021, pages 3343–3353, online (英語) 0.69
Association for Computational Linguistics. Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. 計算言語学会会員。 Piotr Bojanowski、Edouard Grave、Armand Joulin、Tomas Mikolov。 0.42
2017. Enriching Word Vectors with Subword Information. 2017. 単語ベクトルをサブワード情報で強化する。 0.51
Transactions of the Association for Computational Linguistics, 5:135–146. 計算言語学協会 (association for computational linguistics, 5:135–146)。 0.54
Gemma Boleda. 2020. ジェマ・ボレダ 2020. 0.39
Distributional semantics and linguistic theory. 分布意味論と言語理論。 0.81
Annual Review of Linguistics, 6:213–234. 言語学年表6:213-234。 0.63
Paula Czarnowska, Guy Emerson, and Ann Copestake. ポーラ・チャルノワスカ、ガイ・エマーソン、アン・コープステイク。 0.47
2019. Words are vectors, dependencies are matrices: Learning word embeddings from dependency 2019. 単語はベクトル、依存関係は行列:依存性から単語埋め込みを学ぶ 0.58
In Proceedings of the 13th International graphs. 第13回国際グラフ会議に出席。 0.66
Conference on Computational Semantics - Long Papers, pages 91–102, Gothenburg, Sweden. Conference on Computational Semantics - Long Papers, page 91–102, Gothenburg, Sweden 0.42
Association for Computational Linguistics. Guy Emerson. 計算言語学会会員。 ガイ・エマーソン。 0.59
2020. What are the goals of distribuIn Proceedings of the 58th Antional semantics? 2020. 第58回年次セマンティクスにおけるディトリバイン・プロシージャの目標は何か? 0.46
nual Meeting of the Association for Computational Linguistics, pages 7436–7453, Online. The Association for Computational Linguistics, page 7436–7453, Online. (英語) 0.40
Association for Computational Linguistics. Dan Flickinger, Stephan Oepen, and Gisle Ytrestøl. 計算言語学会会員。 dan flickinger、stephan oepen、gisle ytrestøl。 0.46
2010. WikiWoods: Syntacto-semantic annotation In Proceedings of the 7th for English Wikipedia. 2010. WikiWoods: Syntacto-semantic annotations In Proceedings of the 7th for English Wikipedia 0.45
International Conference on Language Resources and Evaluation (LREC), pages 1665–1671. 国際言語資源評価会議(LREC) 1665-1671頁。 0.63
European Language Resources Association (ELRA). 欧州言語資源協会 (ELRA) の略。 0.77
Aurélie Herbelot and Marco Baroni. オーレリー・ハーベロとマルコ・バロン。 0.46
2017. High-risk learning: acquiring new word vectors from tiny data. 2017. 高リスク学習: 小さなデータから新しいワードベクトルを取得する。 0.62
In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 304–309, Copenhagen, Denmark. 2017年の自然言語処理における経験的手法に関する会議では、コペンハーゲン、コペンハーゲン、304-309ページが紹介された。
訳抜け防止モード: 自然言語処理における経験的手法に関する2017年会議のまとめ 304-309頁、デンマークのコペンハーゲン。
0.78
Association for Computational Linguistics. Matthew Honnibal, 計算言語学会会員。 マシュー・ホニバル。 0.54
Ines Montani, Sofie Van Landeghem, spaCy: Industrial-strength natural language processing in Python. Ines Montani, Sofie Van Landeghem, spaCy: Pythonにおける産業的な自然言語処理。 0.91
and Adriane Boyd. エイドリアン・ボイド。 0.38
2020. Mikhail Khodak, Nikunj Saunshi, Yingyu Liang, Tengyu Ma, Brandon Stewart, and Sanjeev Arora. 2020. mikhail khodak、nikunj saunshi、yingyu liang、tengyu ma、brandon stewart、sanjeev arora。 0.46
2018. A la carte embedding: Cheap but effective In Proceedinduction of semantic feature vectors. 2018. la carte embedded: 安価だが、意味的特徴ベクトルの逐次的導入に効果的である。 0.50
ings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 12–22, Melbourne, Australia. 第56回計算言語学会年次大会(Volume 1: Long Papers), 12-22頁, メルボルン, オーストラリア 0.54
Association for Computational Linguistics. Angeliki Lazaridou, Marco Marelli, and Marco Baroni. 計算言語学会会員。 アンジェリキ・ラザリドゥ(angeliki lazaridou)、マルコ・マレリ(marco marelli)、マルコ・バロン(marco baroni)。 0.43
2017. Multimodal word meaning induction from minimal exposure to natural text. 2017. 自然テキストへの最小露出から誘導される多モーダル語の意味 0.55
Cognitive Science, 41 Suppl 4. Alessandro Lenci. 認知科学41巻。 アレッサンドロ・レンチ。 0.35
2018. Distributional models of word meaning. 2018. 単語の意味の分布モデル。 0.62
Annual review of Linguistics, 4:151–171. 言語学年表 4:151–171。 0.65
Omer Levy and Yoav Goldberg. オマー・レヴィとヨアヴ・ゴールドバーグ 0.40
2014. DependencyIn Proceedings of the based word embeddings. 2014. ベースとなる単語埋め込みのdependencyinプロシージャ。 0.50
52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 302–308, Baltimore, Maryland. 52th annual meeting of the association for computational linguistics (第2巻: short papers) メリーランド州ボルチモアの302-308ページ。 0.76
Association for Computational Linguistics. Omer Levy, Yoav Goldberg, and Ido Dagan. 計算言語学会会員。 オマー・レヴィ、ヨアヴ・ゴールドバーグ、イド・ダーガン。 0.49
2015. Improving distributional similarity with lessons learned from word embeddings. 2015. 単語埋め込みから学んだ教訓による分布類似性の改善 0.58
Transactions of the Association for Computational Linguistics, 3:211–225. 計算言語学協会 (association for computational linguistics, 3:211-225) の略称。 0.45
Diego Marcheggiani and Ivan Titov. ディエゴ・マルチェジアーニと イヴァン・ティトフ 0.51
2017. Encoding sentences with graph convolutional networks for seIn Proceedings of the 2017 mantic role labeling. 2017. SeIn Proceedings of the 2017 Mantic Role labelingのグラフ畳み込みネットワークによる文のエンコード。 0.60
Conference on Empirical Methods in Natural Language Processing, pages 1506–1515, Copenhagen, Denmark. 自然言語処理における経験的手法に関する会議,1506-1515ページ,デンマーク,コペンハーゲン 0.75
Association for Computational Linguistics. 計算言語学会会員。 0.52
英語(論文から抽出)日本語訳スコア
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Tomas Mikolov、Ilya Sutskever、Kai Chen、Greg S Corrado、Jeff Dean。 0.35
2013. Distributed representations of words and phrases and their compositionality. 2013. 単語と句の分散表現とその構成性 0.52
In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26, pages 3111–3119. C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26, page 3111–3119. 0.46
Curran Associates, Inc. Curran Associates, Inc. 0.42
Ethan Perez, Douwe Kiela, and Kyunghyun Cho. ethan perez、douwe kiela、kyunghyun cho。 0.50
2021. True few-shot learning with language models. 2021. 言語モデルによる真に数発の学習。 0.53
In Advances in Neural Information Processing Systems. 神経情報処理システムの進歩です 0.58
Magnus Sahlgren. マグナス・サールグレン 0.45
2008. The distributional hypothesis. 2008. 分布仮説です 0.48
Italian Journal of Disability Studies, 20:33–53. イタリア障害研究誌、20:33-53。 0.61
Timo Schick and Hinrich Schütze. ティモ・シックとヒンリッヒ・シュッツェ 0.39
2019. Learning semantic representations for novel words: LeverIn Proceedings of aging both form and context. 2019. 新規な単語の意味表現を学習する: 形と文脈の両方の老化の証明。 0.53
the AAAI Conference on Artificial Intelligence, volume 33, pages 6965–6973. aaai conference on artificial intelligence, volume 33, pages 6965-6973 を参照。 0.75
Jeroen Van Hautte, Guy Emerson, and Marek Rei. ジェローエン・ヴァン・ホーテ、ガイ・エマーソン、マレック・レイ。 0.34
2019. Bad form: Comparing context-based and form-based few-shot learning in distributional semantic models. 2019. 悪い形式: 分布意味モデルにおけるコンテキストベースとフォームベースの少数ショット学習を比較する。 0.54
In Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019), pages 31–39, Hong Kong, China. In Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019), page 31–39, Hong Kong, China。
訳抜け防止モード: 低リソースNLPのためのディープラーニングアプローチに関する第2回ワークショップ(DeepLo 2019)の開催報告 31-39頁、香港、中国。
0.78
Association for Computational Linguistics. Alexey Zobnin and Evgenia Elistratova. 計算言語学会会員。 Alexey ZobninとEvgenia Elistratova。 0.65
2019. Learning word embeddings without context vectors. 2019. 文脈ベクトルなしの単語埋め込みの学習。 0.59
In Proceedings of the 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pages 244– 249, Florence, Italy. 第4回nlp表現学習ワークショップ(repl4nlp-2019)の議事録では、イタリアのフィレンツェにある244-249ページが紹介されている。
訳抜け防止モード: 第4回NLP表現学習ワークショップ(RepL4NLP-2019)に参加して 244頁 - 249頁、イタリア、フィレンツェ。
0.80
Association for Computational Linguistics. 計算言語学会会員。 0.52
             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。