論文の概要、ライセンス

# (参考訳) 位置バイアス軽減:感情原因抽出のための知識認識グラフモデル [全文訳有]

Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion Cause Extraction ( http://arxiv.org/abs/2106.03518v2 )

ライセンス: CC BY 4.0
Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He(参考訳) 感情原因抽出(ECE)タスクは、テキストで表現された特定の感情に対する感情誘発情報を含む節を特定することを目的としている。 広く使われているCEデータセットは、注釈付き原因節の大多数が関連する感情節の直前にあるか、あるいは感情節自体である、というバイアスを示す。 ECEの既存のモデルは、そのような相対的な位置情報を探索し、データセットバイアスに悩まされる傾向がある。 本研究では,既存のCEモデルが節の相対的な位置に依存する度合いを調べるために,相対的な位置情報がもはや原因節の指示的特徴ではない敵の例を生成する新しい手法を提案する。 既存のモデルの性能をこのような逆例で検証し、大幅な性能低下を観察する。 データセットのバイアスに対処するために,コモンセンス知識を活用して感情のトリガパスを明示的にモデル化し,候補節と感情節間の意味依存度を高めるグラフベース手法を提案する。 実験の結果,提案手法は従来のECEデータセットの既存手法と同等に動作し,既存モデルと比較して敵攻撃に対してより堅牢であることがわかった。

The Emotion Cause Extraction (ECE)} task aims to identify clauses which contain emotion-evoking information for a particular emotion expressed in text. We observe that a widely-used ECE dataset exhibits a bias that the majority of annotated cause clauses are either directly before their associated emotion clauses or are the emotion clauses themselves. Existing models for ECE tend to explore such relative position information and suffer from the dataset bias. To investigate the degree of reliance of existing ECE models on clause relative positions, we propose a novel strategy to generate adversarial examples in which the relative position information is no longer the indicative feature of cause clauses. We test the performance of existing models on such adversarial examples and observe a significant performance drop. To address the dataset bias, we propose a novel graph-based method to explicitly model the emotion triggering paths by leveraging the commonsense knowledge to enhance the semantic dependencies between a candidate clause and an emotion clause. Experimental results show that our proposed approach performs on par with the existing state-of-the-art methods on the original ECE dataset, and is more robust against adversarial attacks compared to existing models.
公開日: Tue, 8 Jun 2021 10:27:00 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion 位置バイアス緩和:感情に対する知識認識グラフモデル 0.73
Cause Extraction {hanqi.yan, lin.gui, gabriele.pergola, yulan.he}@warwick.ac.uk 原因抽出 hanqi.yan, lin.gui, gabriele.pergola, yulan.he}@warwick.ac.uk 0.64
Department of Computer Science, University of Warwick ウォーリック大学コンピュータ科学科 0.48
Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He 0.85
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] L C . s c [ 8 ]LC。 sc [ 0.60
2 v 8 1 5 3 0 2 v 8 1 5 3 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract The Emotion Cause Extraction (ECE) task aims to identify clauses which contain emotion-evoking information for a particular emotion expressed in text. 概要 感情原因抽出(ECE)タスクは、テキストで表現された特定の感情に対する感情誘発情報を含む節を特定することを目的としている。
訳抜け防止モード: 概要 感情原因抽出(ECE)課題 感情を含む節を識別する — テキストで表現された特定の感情に関する情報を発行する。
0.58
We observe that a widely-used ECE dataset exhibits a bias that the majority of annotated cause clauses are either directly before their associated emotion clauses or are the emotion clauses themselves. 広く使われているCEデータセットは、注釈付き原因節の大多数が関連する感情節の直前にあるか、あるいは感情節自体である、というバイアスを示す。 0.65
Existing models for ECE tend to explore such relative position information and suffer from the dataset bias. ECEの既存のモデルは、そのような相対的な位置情報を探索し、データセットバイアスに悩まされる傾向がある。
訳抜け防止モード: ECE傾向の既存モデル このような相対的な位置情報を探索し データセットバイアスに悩まされます
0.77
To investigate the degree of reliance of existing ECE models on clause relative positions, we propose a novel strategy to generate adversarial examples in which the relative position information is no longer the indicative feature of cause clauses. 本研究では,既存のCEモデルが節の相対的な位置に依存する度合いを調べるために,相対的な位置情報がもはや原因節の指示的特徴ではない敵の例を生成する新しい手法を提案する。 0.72
We test the performance of existing models on such adversarial examples and observe a significant performance drop. 既存のモデルの性能をこのような逆例で検証し、大幅な性能低下を観察する。 0.74
To address the dataset bias, we propose a novel graph-based method to explicitly model the emotion triggering paths by leveraging the commonsense knowledge to enhance the semantic dependencies between a candidate clause and an emotion clause. データセットのバイアスに対処するために,コモンセンス知識を活用して感情のトリガパスを明示的にモデル化し,候補節と感情節間の意味依存度を高めるグラフベース手法を提案する。 0.77
Experimental results show that our proposed approach performs on par with the existing stateof-the-art methods on the original ECE dataset, and is more robust against adversarial attacks compared to existing models.1 実験の結果,提案手法は従来のECEデータセットの既存手法と同等に動作し,既存モデルと比較して敵攻撃に対してより堅牢であることがわかった。 0.79
1 Introduction Instead of detecting sentiment polarity from text, recent years have seen a surge of research activities that identify the cause of emotions expressed in text (Gui et al , 2017; Cheng et al , 2017a; Rashkin et al , 2018; Xia and Ding, 2019; Kim and Klinger, 2018; Oberl¨ander and Klinger, 2020). 1 はじめに テキストから感情の極性を検出する代わりに、近年、テキストで表される感情の原因を特定する研究活動が急増している(Gui et al , 2017a; Cheng et al , 2017a; Rashkin et al , 2018; Xia and Ding, 2019; Kim and Klinger, 2018; Oberl sander and Klinger, 2020)。 0.75
In a typical dataset for Emotion Cause Extract (ECE) (Gui 感情原因抽出(ECE)のための典型的なデータセット(Gui) 0.82
1Our code can be accessed at https://github.com /hanqi-qi/Position-B ias-Mitigation-in-Em otion-Cause-Analysis https://github.com /hanqi-qi/Position-B ias-Mitigation-in-Em otion-Cause-Analysis 0.38
et al , 2017), a document consists of multiple clauses, one of which is the emotion clause annotated with a pre-defined emotion class label. 文書は複数の節で構成されており、そのうちの1つは予め定義された感情クラスラベルでアノテートされた感情節である。 0.60
In addition, one or more clauses are annotated as the cause clause(s) which expresses triggering factors leading to the emotion expressed in the emotion clause. さらに、1つ以上の節は、感情節で表現された感情につながる要因を表す原因節(s)としてアノテートされる。 0.65
An emotion extraction model trained on the dataset is expected to classify a given clause as a cause clause or not, given the emotion clause. データセット上でトレーニングされた感情抽出モデルでは、感情節が与えられた節を原因節として分類することが期待される。 0.52
Figure 1: The distribution of positions of cause clauses relative to their corresponding emotion clauses in the ECE dataset (Gui et al , 2016). 図1:ECEデータセット(Gui et al , 2016)における、対応する感情節に対する原因節の位置の分布。 0.68
Nearly 87% of cause clauses are located near the emotion clause (About 55% are immediately preceding the emotion clause, 24% are the emotion clauses themselves and over 7% are immediately after the emotion clause). 感情条項の87%近くは感情条項のすぐ前にある(55%が感情条項のすぐ前にあり、24%が感情条項自身であり、7%以上が感情条項の直後である)。 0.63
However, due to the difficulty in data collection, the ECE datasets were typically constructed by using emotion words as queries to retrieve relevant contexts as candidates for emotion cause annotation, which might lead to a strong positional bias (Ding and Kejriwal, 2020). しかし、データ収集の難しさから、ECEデータセットは通常、感情的な単語をクエリとして使用して、感情の原因アノテーションの候補として関連するコンテキストを検索することで構築され、強い位置バイアスにつながる可能性がある(Ding and Kejriwal, 2020)。 0.65
Figure 1 depicts the distribution of positions of cause clauses relative to the emotion clause in the ECE dataset (Gui et al , 2016). 図1は、eceデータセット(gui et al , 2016)の感情節に対する原因節の位置の分布を示しています。 0.68
Most cause clauses are either immediately preceding their corresponding emotion clauses or are the emotion clauses themselves. ほとんどの原因節は、対応する感情節の直前にあるか、感情節自身である。 0.49
Existing ECE models tend to exploit such relative position information and have achieved good results on emotion cause detection. 既存のECEモデルはそのような相対的な位置情報を利用する傾向があり、感情の原因の検出において良い結果を得た。 0.55
For example, The Rel- 例えば、The Rel- 0.78
1.717.7154.4523.587. 472.220.510102030405 060Prev3Prev2Prev1em otionNext1Next2Next3 Percentage(%)Cause Position 1.717.7154.4523.587. 472.220.510102040406 0Prev3Prev2Prev1emot ionNext1Next2Next3Pe rcentage(%)Cause position 0.24
英語(論文から抽出)日本語訳スコア
ative Position Augmented with Dynamic Global Labels (PAE-DGL) (Ding et al , 2019), RNNTransformer Hierarchical Network (RTHN) (Xia et al , 2019) and Multi-Attention-base d Neural Network (MANN) (Li et al , 2019) all concatenate the relative position embeddings with clause semantic embeddings as the clause representations. Dynamic Global Labels (PAE-DGL) (Ding et al , 2019)、RNNTransformer Hierarchical Network (RTHN) (Xia et al , 2019)、Multi-Attention-base d Neural Network (MANN) (Li et al , 2019) は、それぞれ、節の表現として節のセマンティック埋め込みと相対的な位置埋め込みを結合している。 0.82
We argue that models utilising clause relative positions would inherently suffer from the dataset bias, and therefore may not generalise well to unseen data when the cause clause is not in proximity to the emotion clause. 本論では, 節の相対的な位置を利用するモデルは, 本来はデータセットのバイアスに悩まされるため, 原因節が感情節に近づかない場合に, 不明瞭なデータにうまく一般化できないことを論じる。 0.69
For example, in a recently released emotion cause dataset, only 25-27% cause clauses are located immediately before the emotion clause (Poria et al , 2020). 例えば、最近リリースされた感情原因データセットでは、感情節(poria et al , 2020)の直前にある原因節はわずか25-27%である。 0.64
To investigate the degree of reliance of existing ECE models on clause relative positions, we propose a novel strategy to generate adversarial examples in which the relative position information is no longer the indicative feature of cause clauses. 本研究では,既存のCEモデルが節の相対的な位置に依存する度合いを調べるために,相対的な位置情報がもはや原因節の指示的特徴ではない敵の例を生成する新しい手法を提案する。 0.72
We test the performance of existing models on such adversarial examples and observe a significant performance drop. 既存のモデルの性能をこのような逆例で検証し、大幅な性能低下を観察する。 0.74
To alleviate the position bias problem, we propose to leverage the commonsense knowledge to enhance the semantic dependencies between a candidate clause and the emotion clause. 位置バイアス問題を緩和するために,コモンセンス知識を活用し,候補節と感情節間の意味依存度を高めることを提案する。 0.64
More concretely, we build a clause graph, whose node features are initialised by the clause representations, and has two types of edges i.e., Sequence-Edge (SEdge) and Knowledge-Edge (K-Edge). より具体的には、節の特徴が節表現によって初期化され、Sequence-Edge (SEdge) と Knowledge-Edge (K-Edge) の2種類のエッジを持つ節グラフを構築する。 0.77
A S-Edge links two consecutive clauses to capture the clause neighbourhood information, while a K-Edge links a candidate clause with the emotion clause if there exists a knowledge path extracted from the ConceptNet (Speer et al , 2017) between them. S-Edgeは2つの連続した節をリンクして節の近傍情報をキャプチャし、K-Edgeはそれらの間にConceptNet(Speer et al , 2017)から抽出された知識パスが存在する場合、候補節と感情節をリンクする。 0.63
We extend Relation-GCNs (Schlichtkrull et al , 2018) to update the graph nodes by gathering information encoded in the two types of edges. 我々は2種類のエッジにエンコードされた情報を収集することでグラフノードを更新するためにrelation-gcns(schlic htkrull et al , 2018)を拡張する。 0.70
Finally, the cause clause is detected by performing node (i.e., clause) classification on the clause graph. 最後に、原因節は節グラフ上のノード(節)分類を行うことで検出される。 0.65
In summary, our contributions are three-fold: まとめると、私たちの貢献は3倍です。 0.53
• We investigate the bias in the Emotion Cause Extraction (ECE) dataset and propose a novel strategy to generate adversarial examples in which the position of a candidate clause relative to the emotion clause is no longer the indicative feature for cause extraction. •感情原因抽出(ECE)データセットのバイアスを調査し,感情節に対する候補節の位置がもはや原因抽出の指示的特徴ではない敵例を生成する新しい戦略を提案する。 0.69
• We develop a new emotion cause extraction approach built on clause graphs in which nodes are clauses and edges linking two nodes capture the neighbourhood information as • ノードが節であり、2つのノードをつなぐエッジが近傍情報をキャプチャする節グラフに基づく新しい感情原因抽出手法を開発した。 0.82
well as the implicit reasoning paths extracted from a commonsense knowledge base between clauses. 条項間の常識的知識ベースから抽出した 暗黙の推論経路も 0.64
Node representations are updated using the extended Relation-GCN. ノード表現は拡張Relation-GCNを使って更新される。 0.63
• Experimental results show that our proposed approach performs on par with the existing state-of-the-art methods on the original ECE dataset, and is more robust when evaluating on the adversarial examples. • 実験結果から,提案手法は元のECEデータセットの既存の最先端手法と同等に動作し,対角的な例で評価するとより堅牢であることがわかった。 0.80
2 Related Work The presented work is closely related to two lines of research in emotion cause extraction: positioninsensitive and position-aware models. 2 関連作業 提案する研究は,感情原因抽出における2つの研究,すなわち位置感応モデルと位置認識モデルに密接に関連している。 0.68
Position-insensitive Models. A more traditional line of research exploited structural representations of textual units relying on rule-based systems (Lee et al , 2010) or incorporated commonsense knowledge bases (Gao et al , 2015) for emotion cause extraction. 位置無感モデル。 より伝統的な研究は、規則に基づくシステムに依存するテキスト単位の構造表現(lee et al , 2010)や感情原因抽出のためのincorporated commonsense knowledge bases (gao et al , 2015)を利用した。 0.71
Machine learning methods leveraged text features (Gui et al , 2017) and combined them with multi-kernel Support Vector Machine (SVM) (Xu et al , 2017). 機械学習手法はテキスト機能(Gui et al , 2017)を活用し、それをマルチカーネルサポートベクトルマシン(SVM)と組み合わせた(Xu et al , 2017)。 0.80
More recent works developed neural architectures to generate effective semantic features. 最近の研究は、効果的な意味的特徴を生成するニューラルネットワークを開発した。 0.44
Cheng et al (2017b) employed LSTM models, Gui et al (2017) made use of memory networks, while Li et al (2018) devised a Convolutional Neural Network (CNN) with a co-attention mechanism. Cheng et al (2017b)はLSTMモデル、Gui et al (2017)はメモリネットワークを使用し、Li et al (2018)は共用機構を備えた畳み込みニューラルネットワーク(CNN)を考案した。 0.68
(Chen et al , 2018) used the emotion classification task to enhance cause extraction results. (Chen et al , 2018) は, 感情分類タスクを用いて原因抽出結果を向上した。 0.74
Position-aware Models. More recent methodologies have started to explicitly leverage the positions of cause clauses with respect to the emotion clause. 位置認識モデル。 より最近の方法論は感情節に関して原因節の位置を明示的に活用し始めている。 0.57
A common strategy is to concatenate the clause relative position embedding with the candidate clause representation (Ding et al , 2019; Xia et al , 2019; Li et al , 2019). 一般的な戦略は、節の相対的な位置を候補節の表現と組み合わせることである(Ding et al , 2019; Xia et al , 2019; Li et al , 2019)。 0.80
The Relative Position Augmented with Dynamic Global Labels (PAE-DGL) (Ding et al , 2019) reordered clauses based on their distances from the target emotion clause, and propagated the information of surrounding clauses to the others. 動的グローバルラベル(PAE-DGL)による相対的位置増強(Ding et al , 2019)は、対象の感情節からの距離に基づいて節を並べ替え、周囲の節に関する情報を他者に広めた。 0.70
Xu et al (2019) used emotion dependent and independent features to rank clauses and identify the cause. Xu et al (2019)は感情に依存し、独立した特徴を使って節をランク付けし、原因を特定する。
訳抜け防止モード: Xu et al (2019 )は感情依存と独立した特徴を用いた 条項をランク付けし 原因を特定することです
0.70
The RNN-Transformer Hierarchical Network (RTHN) (Xia et al , 2019) argued there exist relations between clauses in a document and proposed to classify multiple clauses simultaneously. RNN-Transformer Hierarchical Network (RTHN) (Xia et al , 2019) は、文書に節の間には関係があり、複数の節を同時に分類することを提案した。 0.66
Li et al (2019) proposed a Multi-Attention-base d Neural Network (MANN) to model the interactions between a candidate clause and the emotion clause. Li et al (2019)は、候補節と感情節の間の相互作用をモデル化するマルチアテンションベースのニューラルネットワーク(MANN)を提案した。 0.69
英語(論文から抽出)日本語訳スコア
Figure 2: The framework of our proposed KAG. 図2:提案したKAGのフレームワーク。 0.61
Given an input document consisting of eight clauses (C1··· C8), we first extract knowledge paths from ConceptNet between each candidate clause and the emotion clause (§3.1), e g , two knowledge paths, p1 and p2, are extracted between C1 and the emotion clause C5. 8つの節からなる入力文書(C1··・C8)が与えられた場合、まず、各候補節と感情節の間のConceptNetから知識パスを抽出し、例えば2つの知識パス(p1,p2)をC1と感情節C5の間で抽出する。 0.71
(a) Document Encoding. (a) 文書の符号化。 0.73
Clauses are fed into a word-level Bi-LSTM and a clause-level Transformer to obtain the clause representations ˆCi. クロースをワードレベルのBi-LSTMと節レベルのトランスフォーマーに入力し、節の表現を得る。
訳抜け防止モード: 句は-level Bi - LSTM に入力される and a clause - level Transformer Ci の節表現を得る。
0.71
The document embedding D is generated by Dot-Attention between the emotion embedding ˆCE and clause embeddings. 文書埋込Dは、感情埋込CEと節埋込とのDot-Attentionによって生成される。 0.60
(b) Path Representations. The extracted knowledge paths are fed into Bi-LSTM to derive path representations. (b)経路表現。 抽出した知識経路をBi-LSTMに入力して経路表現を導出する。 0.65
Multiple paths between a clause pair are aggregated into si based on their attention to the document representation D. (c) Clause Graph Update. 節ペア間の複数のパスは、文書表現D.(c)クロースグラフ更新に対する注意に基づいてsiに集約される。 0.78
A clause graph is built with the clause representations ˆCi used to initialise the graph nodes. 節グラフは、グラフノードを初期化するために使用される節表現である。 0.74
The K-Edge weight eiE between a candidate clause ˆCi and the emotion clause ˆCE are measured by their distance along their path si. 候補節(Ci)と感情節(CE)との間のK−Edge重みEEは、その経路siに沿って距離によって測定される。 0.64
(d) Classification. Node representation hi of a candidate clause Ci is concatenated with the emotion node representation hE, and then fed to a softmax layer to yield the clause classification result ˆyi. (d)分類。 候補節Ciのノード表現hiは、感情ノード表現hEと連結され、ソフトマックス層に供給されて、節分類結果yyiを生成する。 0.66
The generated representations are fed to a CNN layer for emotion cause extraction. 生成された表現は感情原因抽出のためにcnn層に供給される。 0.62
The Hierarchical Neural Network (Fan et al , 2019) aimed at narrowing the gap between the prediction distribution p and the true distribution of the cause clause relative positions. The Hierarchical Neural Network (Fan et al , 2019)は、予測分布pと原因節相対位置の真の分布とのギャップを狭めることを目的としている。 0.86
3 Knowledge-Aware Graph (KAG) 3 知識認識グラフ(KAG) 0.84
Model for Emotion Cause Extraction We first define the Emotion Cause Extraction (ECE) task here. 感情原因抽出モデル まず最初に、感情原因抽出(ECE)タスクを定義します。 0.65
A document D contains N clauses D = {Ci}N i=1, one of which is annotated as an emotion clause CE with a pre-defined emotion class label, Ew. 文書Dは、N節D = {Ci}N i=1を含み、そのうちの1つは、予め定義された感情クラスラベルEwで感情節CEとして注釈付けされる。 0.61
The ECE task is to identify one or more cause clauses, Ct, 1 ≤ t ≤ N, that trigger the emotion expressed in CE. ECEタスクは、CEで表現された感情をトリガーする1つ以上の原因節、Ct, 1 ≤ t ≤ Nを特定することである。 0.70
Note that the emotion clause itself can be a cause clause. 感情節自体が原因節である可能性があることに注意。 0.45
We propose a Knowledge-Aware Graph (KAG) model as shown in Figure 2, which incorporates knowledge paths extracted from ConceptNet for emotion cause extraction. 本稿では,感情原因抽出のためのConceptNetから抽出した知識パスを組み込んだ知識認識グラフ(KAG)モデルを提案する。 0.71
More concretely, for each document, a graph is first constructed by representing each clause in the document as a node. より具体的には、各ドキュメントについてまず、ドキュメントの各節をノードとして表現してグラフを構築する。 0.65
The edge linking two nodes captures the sequential relation between neighbouring clauses (called the Sequence Edge or S-Edge). 2つのノードをつなぐエッジは、隣接する節(シーケンスエッジまたはsエッジと呼ばれる)間のシーケンシャルな関係をキャプチャする。 0.66
In addition, to bet- ter capture the semantic relation between a candidate clause and the emotion clause, we identify keywords in the candidate clause which can reach the annotated emotion class label by following the knowledge paths in the ConceptNet. また、賭けも。 本研究では,候補節と感情節のセマンティックな関係を抽出し,概念ネットの知識パスに従うことで,注釈付き感情クラスラベルに到達可能な候補節のキーワードを同定する。 0.64
The extracted knowledge paths from ConceptNet are used to enrich the relationship between the candidate clause and the emotion clause and are inserted into the clause graph as the Knowledge Edge or K-Edge. ConceptNetから抽出された知識パスは、候補節と感情節の関係を強化するために使用され、ナレッジエッジまたはK-Edgeとして節グラフに挿入される。 0.71
We argue that by adding the K-Edges, we can better model the semantic relations between a candidate clause and the emotion clause, regardless of their relative positional distance. K-Edgesを追加することで、相対的な位置距離に関係なく、候補節と感情節のセマンティックな関係をよりうまくモデル化できると論じる。 0.74
In what follows, we will first describe how to extract knowledge paths from ConceptNet, then present the incorporation of the knowledge paths into context modelling, and finally discuss the use of Graphical Convolutional Network (GCN) for learning node (or clause) representations and the prediction of the cause clause based on the learned node representations. 次に、まず、conceptnetから知識パスを抽出する方法を説明し、次に、知識パスをコンテキストモデリングに組み込む方法を説明し、最後に、ノード(または節)表現を学習するためのグラフィカル畳み込みネットワーク(gcn)の使用と、学習したノード表現に基づく原因節の予測について論じる。 0.77
3.1 Knowledge Path Extraction from 3.1 知識パスの抽出 0.80
ConceptNet ConceptNet is a commonsense knowledge graph, which represents entities as nodes and relationship between them as edges. コンセプトネット ConceptNetは、エンティティをノードとして表現し、それらの関係をエッジとして表現する常識知識グラフである。 0.66
To explore the causal re- to explore the causal re- 0.89
Bi-LSTMBi-LSTM. Bi-LSTMBi-LSTM 0.55
. .Transformer 𝑝1. . トランスフォーマーp1。 0.75
. . 𝑝2Bi-LSTM 𝑠1𝛼1𝛼𝐾S-EdgeK-Edge 𝐶)1 𝐶)𝐸 𝐶)8. . . . p2Bi-LSTM s1α1αKS-EdgeK-Edge C)1C)E8。 0.76
.𝐶)2𝐶)6C1C8C5p1p2Bi-LSTM𝛼2 𝐷p1p2e15 𝐶)𝐸ConceptNet ℎ/ℎ0Softmax𝑦2𝟏Document(b) Path Representations. C)6C1C8C5C1P2Bi-LSTM α2Dp1p2e15C)EConceptN et h/h0Softmaxy21Docume nt(b) Path Representations 0.46
(a) Document Encoding. (a) 文書の符号化。 0.73
(c) Clause graph update. c) 節グラフのアップデート。 0.68
(d) Classification.. . .. . (d)分類。 .. . 0.75
.. . .𝐶4Bi-LSTM .. . .C4Bi-LSTM 0.61
英語(論文から抽出)日本語訳スコア
Figure 3: A document consisting of 8 clauses in the ECE dataset with extracted knowledge paths from the ConceptNet. 図3:ConceptNetから抽出された知識パスを持つECEデータセットの8つの節からなるドキュメント。 0.80
Words in red are identified keywords. 赤の単語は特定キーワードです。 0.73
‘happiness’ is the emotion label of the emotion clause C5. 幸福」は感情節C5の感情ラベルである。 0.65
For better visualization, we only display two extracted knowledge paths between ‘adopt’ and ‘happiness’ in the ConceptNet. より良い視覚化のために、抽出された2つの知識パスのみをConceptNetに表示します。 0.63
lation between a candidate clause and the emotion clause, we propose to extract cause-related paths linking a word in the candidate clause with the annotated emotion word or the emotion class label, Ew, in the emotion clause. そこで本論文では,候補節と感情節の関連性から,候補節の単語と注釈付き感情語,感情クラスラベルEwを関連づける原因関連経路を抽出することを提案する。
訳抜け防止モード: 候補節と感情節の関連づけとして,候補節中の単語と注釈付き感情語をリンクする原因関連経路を抽出することを提案する。 感情のクラスラベル ew, in the emotion clause などです。
0.80
More concretely, for a candidate clause, we first perform word segmentation using the Chinese segmentation tool, Jieba2, and then extract the top three keywords ranked by Text-Rank3. より具体的には、候補節に対しては、まず中国語のセグメンテーションツールであるJieba2を用いて単語セグメンテーションを行い、次いでText-Rank3でランク付けされた上位3つのキーワードを抽出する。 0.58
Based on the findings in (Fan et al , 2019) that sentiment descriptions can be relevant to the emotion cause, we also include adjectives in the keywords set. 感情記述が感情原因に関連する可能性があるという(fan et al , 2019)調査結果に基づいて、キーワードセットに形容詞を含める。 0.73
We regard each keyword in a candidate clause as a head entity, eh, and the emotion word or the emotion class label in the emotion clause as the tail entity, et. 本稿では,各キーワードを見出しエンティティ,すなわち感情語,感情クラスラベル,感情句の各キーワードを末尾エンティティとみなす。
訳抜け防止モード: 我々は、候補節の各キーワードをヘッダーとしてみなす。 感情語や感情クラスラベルは「尾の実体」として感情節に表示されます。
0.65
Similar to (Lin et al , 2019), we apply networkx4 to perform a depth-first search on the ConceptNet to identify the paths which start from eh and end at et, and only keep the paths which contain less than two intermediate entities. lin et al , 2019 と同様、networkx4 を用いて概念ネットの深さ優先探索を行い、eh から et までの経路を識別し、2 つ以下の中間エンティティを含む経路のみを保持する。 0.67
This is because shorter paths are more likely to offer reliable reasoning evidence (Xiong et al , 2017). これは、短い経路が信頼できる推論証拠を提供する可能性が高いためである(Xiong et al , 2017)。 0.70
Since not all relations in ConceptNet are related to or indicative of causal relations, we further remove the paths which contain any of these four relations: ‘antonym’, ‘distinct from’, ‘not desires’, and ‘not capable of’. 概念ネットのすべての関係が因果関係と関連している、あるいは因果関係を示すわけではないので、これら4つの関係のどれかを含む経路、すなわち「antonym」、「distinct from」、「not desires」、および「not capable」を更に削除する。 0.74
Finally, we order paths by their lengths in an ascending order and choose the top K paths as the result for each candidateemotion clause pair5. 最後に,それらの長さの経路を昇順に順序付けし,各候補移動節ペア5の結果として上位k経路を選択する。 0.80
An example is shown in Figure 3. 例を図3に示します。 0.65
The 5-th 2https://github.com/ fxsjy/jieba 3We have also experimented with other keyword extraction strategies, such as extracting words with higher TFIDF values or keeping all words after removing the stop words. 5代目 2https://github.com/ fxsjy/jieba 3 我々は、より高いTFIDF値を持つ単語の抽出や、停止語を削除した後のすべての単語の保存など、他のキーワード抽出戦略の実験も行った。 0.54
But we did not observe improved emotion cause detection results. しかし、感情原因検出結果の改善は観察されなかった。 0.68
4http://networkx.git hub.io/ 5We set K to 15, which is the median of the number of paths between all the candidate-emotion clause pairs in our dataset. 4http://networkx.git hub.io/ 5we set k to 15 これは、データセット内のすべての候補-感情節ペア間のパス数の中央値です。 0.65
clause is annotated as the emotion clause and the emotion class label is ‘happiness’. 節はemotionment節としてアノテートされ、emotion classラベルは‘happiness’である。 0.63
For the keyword, ‘adopted’, in the first clause, we show two example paths extracted from ConceptNet, each of which links the word ‘adopted’ with ‘happiness’. 最初の節で‘adpted’というキーワードに対して、ConceptNetから抽出された2つのサンプルパスを示し、それぞれが‘adpted’と‘happiness’をリンクする。 0.70
One such a path is “adopted −related to→ acceptance −has subevent→ make better world −causes→ happiness”. そのような経路の1つは、"adopted −related to→ accept −has subevent→ make better world − becauses→ happiness"である。 0.65
3.2 Knowledge-Aware Graph (KAG) Model As shown in Figure 2, there are four components in our model: a document encoding module, a context-aware path representation learning module, a GCN-based graph representation updating module, and finally a softmax layer for cause clause classification. 3.2 知識認識グラフ(KAG)モデル 図2に示すように、私たちのモデルには、文書符号化モジュール、文脈認識パス表現学習モジュール、GCNベースのグラフ表現更新モジュール、そして最後に原因節分類のためのソフトマックスレイヤの4つのコンポーネントがあります。 0.80
Initial Clause/Document Representation Learning For each clause Ci, we derive its representation, Ci, by using a Bi-LSTM operating on its constituent word vectors, where each word vector wi ∈ Rd is obtained via an embedding layer. 初期クローズ/文書表現学習 各節Ciに対して、各単語ベクトルwi ∈ Rdが埋め込み層を介して取得される構成語ベクトルを操作したBi-LSTMを用いて、その表現Ciを導出する。 0.80
To capture the sequential relationship (S-Edges) between neighbouring clauses in a document, we feed the clause sequence into a transformer architecture. 文書中の隣接節間の逐次的関係(S-Edges)を捉えるために,文列をトランスフォーマーアーキテクチャに入力する。 0.73
Similar to the original transformer incorporating the position embedding with the word embedding, we utilise the clause position information to enrich the clause representation. 単語埋め込みと位置埋め込みを組み込んだ元のトランスと同様に、節位置情報を利用して節表現を豊かにする。 0.64
Here, the position embedding oi of each clause is concatenated with its representation Ci generated by Bi-LSTM. ここで、各節の位置埋め込み oi は、Bi-LSTM によって生成されるその表現 Ci と連結される。 0.61
ˆCi = Transformer(Ci || oi) Ci = Transformer(Ci || oi) 0.85
(1) We consider different ways for encoding position embeddings using either relative or absolute clause positions and explore their differences in the experiments section. (1) 相対的又は絶対的節位置を用いて位置埋め込みを符号化する方法を異なる方法で検討し,それらの差異を実験部で検討する。 0.75
In addition, we will also show the results without using position embeddings at all. さらに、位置埋め込みをまったく使わずに結果を表示します。 0.52
Bai Jinyue, an ordinary worker in XingTai Steel factory in HeBei province and the department leader replied to my mailwhen I found that my advice had been adoptedI realized that I had made contributions to the country's developmenttalked to the journalist with exicitmentdifferent departments, like the public security, have accepted his advice with a Thank You letter in his handsC2)C4)C3)C6)C7) C8)Since 27 years agoacceptanceculture diffusionspreadC1)C5 )make better worldhappinessConcep tNet 平井省新平製鋼所の常勤労働者で部署長のbai jinyueは、私のアドバイスが採用されていることを知ったとき、私のメールに答えました。私は、公安のように、専門的な部署を持つジャーナリストに話しかけられた国の発展への貢献が、彼のアドバイスを受け入れたのです(c4)c(c6)c7)c8)27年前から、より優れた世界満足感を育んでいます(c5) 0.68
英語(論文から抽出)日本語訳スコア
Since the aim of our task is to identify the cause clause given an emotion clause, we capture the dependencies between each candidate clause and the emotion clause. 本研究の目的は,感情節が与えられた原因節を識別することであり,各候補節と感情節の間の依存関係を捉えることである。 0.57
Therefore, in the document context modelling, we consider the emotion clause ˆCE, generated in a similar way as ˆCi, as the query vector, and the candidate clause representation ˆCi as both the key and value vectors, in order to derive the document representation, D ∈ Rd. したがって、文書コンテキストモデリングでは、文書表現d ∈ rdを導出するために、問合せベクトルとしてciと似た方法で生成された感情節sceと、キーベクトルと値ベクトルの両方として候補節表現sciを考える。 0.66
Context-Aware Path Representation In Section 3.1, we have chosen a maximum of K paths {pt}K t=1 linking each candidate Ci with the emotion clause. 文脈対応パス表現 セクション3.1では、各候補Ciと感情節をリンクする最大Kパス {pt}K t=1を選択しました。 0.75
However, not every path correlates equally to the document context. しかしながら、すべてのパスがドキュメントコンテキストと等しく相関するわけではない。 0.65
Taking the document shown in Figure 3 as an example, the purple knowledge path is more closely related to the document context compared to the green path. 図3に示すドキュメントを例にとると、紫のナレッジパスは、グリーンパスよりもドキュメントコンテキストと密接に関連しています。
訳抜け防止モード: 図3に示す文書を例にとりましょう。 紫の知識パスは、グリーンパスに比べてドキュメントコンテキストとより密接に関連しています。
0.78
As such, we should assign a higher weight to the purple path than the green one. したがって、紫の道に緑の道よりも高い重さを割り当てるべきである。 0.76
We propose to use the document-level representation D obtained above as the query vector, and a knowledge path as both key and value vectors, in order to calculate the similarity between the knowledge path and the document context. 本稿では,上述した文書レベルの表現dを問合せベクトル,知識パスをキーベクトルと値ベクトルとして用いることにより,知識パスと文書コンテキストの類似度を計算することを提案する。 0.86
For each pair of a candidate clause Ci and the emotion clause, we then aggregate the K knowledge paths to derive the contextaware path representation si ∈ Rd below: DT pt j=1 DT pj 候補節 Ci と感情節の各ペアについて、K の知識経路を集約して、下記の文脈認識パス表現 si ∈ Rd を導出する。 0.57
αtpt αt = softmax( αtpt αt = Softmax( 0.86
(cid:80)K K(cid:88) (cid:80)k k(cid:88) 0.81
si = (2) ) si = (2) ) 0.85
t=1 where D is the document representation, pt is the path representation obtained from Bi-LSTM on a path expressed as an entity-relation word sequence. t=1。 D が文書表現である場合、pt は Bi-LSTM から得られたパス表現であり、エンティティ関連ワードシーケンスとして表されるパスである。 0.57
Update of Clause Representations by GCN After constructing a clause graph such as the one shown in Figure 2(c), we update the clause/node representations via S-Edges and K-Edges. GCNによるクロース表現の更新 図2(c)に示すような節グラフを構築した後、S-EdgesおよびK-Edgesを介して節/ノード表現を更新する。 0.76
Only clauses with valid knowledge paths to the emotion clause are connected with the emotion clause node. 感情節に対する有効な知識パスを持つ節のみが感情節ノードに接続される。 0.68
After initialising the node (or clause) in the clause graph with ˆCi and the extracted knowledge path with si, we update clause representation using an extended version of GCN, i.e. 節グラフのノード(または節)を sci で初期化し、抽出された知識パスを si で更新した後、gcn の拡張バージョンを用いて節表現を更新する。
訳抜け防止モード: Ci で節グラフのノード (または節 ) を初期化した後 siで抽出した知識経路 節の表現を更新します GCNの拡張バージョンを使用する。
0.77
RelationGCNs (aka. 関係gcns(別名)。 0.49
R-GCNs) (Schlichtkrull et al , 2018), which is designed for information aggregation over multiple different edges: r-gcns(schlichtkrull et al , 2018)は、複数の異なるエッジ上の情報集約のために設計された。 0.64
h(cid:96)+1 h(cid:96)+1 0.78
i = σ( 1 ci,r i = σ( 1 ci,r 0.85
W (cid:96) W (cid:96) 0.84
r h(cid:96) r h(cid:96) 0.88
j + W (cid:96) j + W (cid:96) 0.92
0 h(cid:96) i ) 0 h(cid:96) i。 0.81
(3) (cid:88) (3) (cid:88) 0.82
(cid:88) r∈RNi (cid:88) rjrni 0.62
j∈Ni where W (cid:96) j is the linear transformed information from the neighbouring node j with relation r at jjni ここで W (cid:96) j は、関係 r を持つ隣接ノード j からの線形変換情報である 0.62
r h(cid:96) r h(cid:96) 0.88
r ∈ Rd×d is relation-specific, Ni the (cid:96)-th layer, W (cid:96) is the set of neighbouring nodes of the i-th node, RNj is the set of distinct edges linking the current node and its neighbouring nodes. r ∈ rd×d は関係特異的であり、ni the (cid:96)-th layer, w (cid:96) は i-番目のノードの隣接ノードの集合であり、rnj は現在のノードとその隣接ノードをつなぐ異なるエッジの集合である。 0.79
When aggregating the neighbouring nodes information along the K-Edge, we leverage the path representation si to measure the node importance. k-エッジに沿って隣接ノード情報を集約する場合、パス表現siを利用してノードの重要性を計測する。 0.73
This idea is inspired by the translation-based models in graph embedding methods (Bordes et al , 2013). このアイデアはグラフ埋め込み法(Bordes et al , 2013)の翻訳モデルに触発されている。 0.77
Here, if a clause pair contains a possible reasoning process described by the K-Edge, then ˆhE ≈ ˆhi + si holds. ここで、ある節対が k-辺によって記述される可能な推論過程を含むならば、 s は成立する。 0.63
Otherwise, ˆhi + si should be far away from the emotion clause representation ˆhE.6 Therefore, we measure the importance of graph nodes according to the similarity between (hi + si) and hE. さもなくば、ヒ + si は感情節表現 she.6 から遠く離れるべきであり、したがって、グラフノードの重要性は (hi + si) と he の類似性によって測定される。 0.64
Here, we use the scaled DotAttention to calculate the similarity eiE and obtain the updated node representation zi. ここでは、スケールしたDotAttentionを用いて類似度 eiE を計算し、更新されたノード表現 zi を得る。 0.69
zi = softmax(eE)h(cid:96) zi = Softmax(eE)h(cid:96) 0.98
E eiE = (hi + si)T hE E eiE = (hi + si)T hE 0.85
(i (cid:54)= E) (i (cid:54)=E) 0.93
√ d (4) where eE is {eiE}N−1 i=1 . ‐d (4) eE は {eiE}N−1 i=1 である。 0.66
d is the dimension of graph node representations, and N rk is a set of neighbours by the K-Edge. d はグラフノード表現の次元であり、N rk は K-Edge による近傍の集合である。 0.82
Then, we combine the information encoded in SEdge with zi as in Eq 3, and perform a non-linear transformation to update the graph node representation h(cid:96)+1 次に、SEdgeでエンコードされた情報をEq 3のようにziと組み合わせ、非線形変換を行い、グラフノード表現h(cid:96)+1を更新する。 0.77
: i i = σ(cid:0)z(cid:96) : 私は i = σ(cid:0)z(cid:96) 0.75
h(cid:96)+1 h(cid:96)+1 0.78
i + (cid:88) i + (cid:88) 0.82
(Wjhj)(cid:1) (wjhj)(cid:1) 0.88
(5) j∈N rs (5) jjn rs 0.69
i is a set of i-th neighbours connected by 私は つながれた i-th の隣人の集まりです 0.56
where N rs i the S-Edges. N rs i the S-Edges。 0.79
Cause Clause Detection Finally, we concatenate the candidate clause node hi and the emotion node representation he generated by the graph, and apply a softmax function to yield the predictive class distribution ˆyi. 原因クローズ検出 最後に、グラフによって生成された候補節ノードhiと感情ノード表現を結合し、ソフトマックス関数を適用して予測クラス分布 yi を生成する。 0.76
ˆyi = softmax(cid:0)W (hL yi = Softmax(cid:0)W (hL) 0.69
E) + b(cid:1), E) + b(cid:1) 0.90
i || hL (6) 4 Experiments We conduct a thorough experimental assessment of the proposed approach against several state-of-theart models7. i||hL (6) 4 実験 提案手法をいくつかの最先端モデルに対して徹底的に実験的に評価する。 0.79
6Here, we do not consider the cases when the candidate clause is the emotion clause (i.e., ˆhi = ˆhE), as the similarity between ˆhE + si and ˆhE will be much larger than the other pairs. 6Here, 対象節が感情節である場合(すなわち, shi = shE)は, shE + si と shE の類似性は他のペアよりもはるかに大きいとみなすことができない。 0.57
7Training and hyper-parameter details can be found in 7TrainingとHyper-parameterの詳細はこちらを参照のこと。 0.52
Appendix A. アペンディックスA。 0.53
英語(論文から抽出)日本語訳スコア
P (%) R (%) F1 (%) Methods 67.47 52.43 RB 38.87 EMOCause 26.72 42.85 Ngrams+SVM 42.00 Multi-Kernel 67.52 65.88 CNN 62.15 60.76 72.66 77.21 CANN 69.55 70.76 Memnet HCS 72.69 73.88 MANN 78.43 77.06 76.08 77.20 LambdaMART 72.42 76.19 PAE-DGL RTHN 76.77 76.97 79.12 77.43 KAG 73.14 73.68 : w/o R-GCNs 74.12 75.67 : w/o K-Edge : w/o S-Edge 76.34 75.88 P (%) R (%) F1 (%) メソッド 67.47 52.43 RB 38.87 EMOCause 26.72 42.85 Ngrams+SVM 42.00 Multi-Kernel 67.52 65.88 CNN 62.15 60.76 72.66 77.21 CANN 69.55 70.76 Memnet HCS 72.69 73.88 MANN 78.43 77.08 77.08 77.20 LambdaMART 72.42 76.19 PAE-DGL RTHN 76.77 76.97 77.12 KAG 73.14 73.68 : wo-RGCs 74.12 74.14 73.68 0.60
42.87 71.30 43.75 69.27 59.44 68.91 68.38 71.54 75.87 74.99 69.08 76.62 75.81 72.76 72.63 75.46 42.87 71.30 43.75 69.27 59.44 68.91 68.38 71.54 75.87 74.99 69.08 76.62 75.81 72.76 72.63 75.46 0.41
W/O Pos W. Pos W/O Pos W. Pos 0.79
Our Table 1: Results of different models on the ECE dataset. 我々の 表1: eceデータセット上のさまざまなモデルの結果。 0.75
Our model achieves the best Precision and F1 score. 我々のモデルは最高の精度とF1のスコアを得る。 0.66
Dataset and Evaluation Metrics The evaluation dataset (Gui et al , 2016) consists of 2,105 documents from SINA city news. Dataset and Evaluation Metrics 評価データセット(Gui et al , 2016)はSINAの都市ニュースから得られた2,105のドキュメントで構成されている。 0.68
As the dataset size is not large, we perform 10-fold cross-validation and report results on three standard metrics, i.e. データセットのサイズが大きくないため、10倍のクロスバリデーションを実行し、3つの標準メトリクス、すなわち3つの結果を報告します。 0.51
Precision (P), Recall (R), and F1-Measure, all evaluated at the clause level. Precision (P)、Recall (R)、F1-Measureは全て節レベルで評価される。 0.73
Baselines We compare our model with the position-insensitive and position-aware baselines: RB (Lee et al , 2010) and EMOCause (Russo et al , 2011) are rules-based methods. ベースライン RB (Lee et al , 2010) と EMOCause (Russo et al , 2011) はルールベースの手法である。
訳抜け防止モード: ベースライン 私たちのモデルと位置を比較します -無神経で位置 RB(Lee et al, 2010) そして EMOCause (Russo et al, 2011 ) はルールベースのメソッドである。
0.79
Multi-Kernel (Gui et al , 2016) and Ngrams+SVM (Xu et al , 2017) leverage Support Vector Machines via different textual feature to train emotion cause classifiers. マルチカーネル(gui et al , 2016)とngrams+svm(xu et al , 2017)は、さまざまなテキスト特徴を通じてサポートベクターマシンを活用して感情の分類を訓練する。 0.70
CNN (Kim, 2014) and CANN (Li et al , 2018) are vanilla or attention-enhanced approaches. CNN (Kim, 2014) と CANN (Li et al , 2018) は、バニラまたは注意を喚起するアプローチである。 0.76
Memnet (Gui et al , 2017) uses a deep memory network to re-frame ECE as a question-answering task. Memnet(Gui et al , 2017)は、ECEを質問応答タスクとして再構成するために、ディープメモリネットワークを使用している。
訳抜け防止モード: Memnet(Gui et al, 2017)はディープメモリネットワークを使用している re - 質問としてECEをフレーム化します。
0.70
Position-aware models use the relative position embedding to enhance the semantic features. 位置認識モデルは、意味的特徴を高めるために相対的な位置埋め込みを使用する。 0.53
HCS (Yu et al , 2019) uses separate hierarchical and attention module to obtain context and information. HCS (Yu et al , 2019) は、コンテキストと情報を得るために、別々の階層と注意モジュールを使用する。 0.68
Besides that, PAE-DGL (Ding et al , 2019) and RTHN (Xia et al , 2019) use similar Global Prediction Embedding (GPE) to twist the clauses’ first-round predictions. PAE-DGL (Ding et al , 2019) と RTHN (Xia et al , 2019) は、同様のグローバル予測埋め込み (GPE) を使用して、節の第一ラウンドの予測をツイストしている。 0.75
MANN (Li et al , 2019) performs multi-head attention in CNN to jointly encode the emotion and candidate clauses. MANN(Li et al , 2019)はCNNにおいて、感情と候補節を共同で符号化する多面的注意を払っている。
訳抜け防止モード: MANN(Li et al, 2019 )がCNNで多面的注目 感情と候補者の条項を 共同で符号化することです
0.76
LambdaMART (Xu et al , 2019) uses the relative position, word-embedding similarity and topic similarity as emotion-related feature to extract cause. LambdaMART(Xu et al , 2019)は、感情に関連した特徴として、相対的な位置、単語埋め込みの類似性、トピック類似性を使用して原因を抽出する。 0.54
4.1 Main Results Table 1 shows the cause clause classification results on the ECE dataset. 4.1 主な結果表1は、ECEデータセットにおける原因節分類結果を示す。 0.80
Two rule-based methods have poor performances, possibly due to their pre-defined rules. 2つのルールベースのメソッドは、おそらく事前定義されたルールのため、パフォーマンスが劣る。 0.60
Multi-Kernel performs better than the vanilla SVM, being able to leverage more contextual information. マルチカーネルはバニラSVMよりもパフォーマンスが良く、コンテキスト情報を活用することができる。 0.66
Across the other three groups, the precision scores are higher than recall scores, and it is probably due to the unbalanced number of cause clauses (18.36%) and non-cause clauses (81.64%), leading the models to predict a clause as non-cause more often. 他の3つのグループ全体では、精度スコアはリコールスコアよりも高く、おそらく原因節(18.36%)と非原因節(81.64%)のバランスの取れていないためであり、モデルが非原因節を予測している。 0.66
Models in the position-aware group perform better than those in the other groups, indicating the importance of position information. 位置認識グループのモデルは他のグループよりも優れており、位置情報の重要性を示している。 0.79
Our proposed model outperforms all the other models except RHNN in which its recall score is slightly lower. 提案モデルでは,リコールスコアが若干低いRHNNを除いて,他のモデルよりも優れている。 0.74
We have also performed ablation studies by removing either K-Edge or S-Edge, or both of them (w/o R-GCNs). また,kエッジまたはsエッジまたは両者(w/o r-gcns)を除去してアブレーション研究を行った。 0.67
The results show that removing the RGCNs leads to a drop of nearly 4.3% in F1. その結果、RCCNを除去するとF1の4.3%近く低下することがわかった。
訳抜け防止モード: その結果は RGCNを除去するとF1の4.3%近く低下する。
0.75
Also, both the K-Edge and S-Edge contributes to emotion cause extraction. また、K-EdgeもS-Edgeも感情の原因抽出に寄与する。 0.64
As contextual modelling has considered the position information, the removal of S-Edge leads to a smaller drop compared to the removal of K-Edge. 文脈モデリングは位置情報を考慮したため、S-Edgeの除去はK-Edgeの除去よりも小さくなる。 0.66
4.2 Impact of Encoding Clause Position Information 4.2 クロース位置情報のエンコードの影響 0.67
In order to examine the impact of using the clause position information in different models, we replace the relative position information of the candidate clause with absolute positions. 異なるモデルにおける節位置情報の使用の影響を検討するため、候補節の相対的位置情報を絶対位置に置き換える。 0.68
In the extreme case, we remove the position information from the models. 極端な場合は、モデルから位置情報を取り除きます。 0.58
The results are shown in Figure 4. 結果は図4に示されています。 0.80
It can be observed that the best results are achieved using relative positions for all models. 最善の結果は、すべてのモデルに対する相対的な位置を用いて達成される。 0.77
Replacing relative positions using either absolution positions or no position at all results in a significant performance drop. 相対的な位置を分離位置または全く位置を持たない位置で置き換えると、パフォーマンスが大幅に低下する。 0.64
In particular, MANN and PAE-DGL have over 50-54% drop in F1. 特に、MANN と PAE-DGL は F1 で 50-54% 以上減少している。 0.66
The performance degradation is less significant for RTHN, partly due to its use of the Transformer architecture for context modeling. RTHNの性能劣化は、部分的にはコンテキストモデリングにTransformerアーキテクチャを使用しているため、あまり重要ではない。 0.62
Nevertheless, we have observed a decrease in F1 score in the range of 20-35%. それでも20~35%の範囲でF1スコアの低下が見られた。 0.67
Our proposed model is less sensitive to the relative positions of candidate clauses. 提案モデルは, 候補節の相対的位置に対する感度が低い。 0.75
Its robust performance partly attributes to the use of (1) hierarchical contextual modeling via the Transformer structure, and (2) the K-Egde which helps explore causal links via commonsense knowledge regardless of a clause’s その頑健な性能は、(1)トランスフォーマー構造による階層的文脈モデリング、(2)コモンセンス知識によるコモンセンス知識による因果関係の探索を支援するK-Egdeの使用によるものである。 0.76
英語(論文から抽出)日本語訳スコア
To locate the least likely cause clause, we propose to choose the value for r2 according to the attention score between a candidate clause and the emotion clause. 本稿では,最も可能性の低い原因節を見つけるために,候補節と感情節の注意点に応じてr2の値を選択することを提案する。 0.64
Our intuition is that if the emotion clause has a lower score attended to a candidate clause, then it is less likely to be the cause clause. 我々の直感は、感情節が、候補節に付随する低いスコアを持つなら、それが原因節である可能性は低いということである。 0.58
We use an existing emotion cause extraction model to generate contextual representations and use the Dot-Attention (Luong et al , 2015) to measure the similarity between each candidate clause and the emotion clause. 既存の感情原因抽出モデルを用いて文脈表現を生成し,Dot-Attention(Luong et al , 2015)を用いて各候補節と感情節の類似度を測定する。 0.79
We then select the index i which gives the lowest attention score and assign it to r2: 次に、最も低い注意スコアを与えるインデックスiを選択し、r2に割り当てます。 0.75
r2 = arg min r2 = arg min 0.98
i {λi}N i=1, λi = Dot-Att. 私は {λi}N i=1, λi = Dot-Att。 0.73
( ˆCi, ˆCE), (~Ci, ~CE) 0.74
(8) where ˆCi is the representation of the i-th candidate clause, ˆCE is the representation of the emotion clause, and N denotes a total of N clauses in a document. (8) Ci は i-th candidate 節の表現であり、CE は感情節の表現であり、N は文書中の N 節の合計を表す。 0.73
Here, we use existing ECE models as different discriminators to generate different adversarial samples.8 The desirable adversarial samples will fool the discriminator to predict the inverse label. ここでは、既存のECEモデルを異なる識別器として使用し、異なる反対サンプルを生成する。8 望ましい反対サンプルは、識別器を騙して逆ラベルを予測する。 0.58
We use leave-one-model-out to evaluate the performance of ECE models. ECEモデルの性能評価にはLeft-one-model-outを用いる。 0.66
In particular, one model is used as a Discriminator for generating adversarial samples which are subsequently used to evaluate the performance of other models. 特に、1つのモデルは他のモデルの性能を評価するために使用される逆サンプルを生成するための判別器として使用される。 0.72
Results The results are shown in Table 2. 結果 結果は表2に示されます。 0.79
The attacked ECE models are merely trained on the original dataset. 攻撃されたECEモデルは、オリジナルのデータセットでのみトレーニングされる。 0.66
The generated adversarial examples are used as the test set only. 生成された逆例はテストセットのみとして使用される。 0.68
We can observe a significant performance drop of 23-32% for the existing ECE models, some of which even perform worse than the earlier rule-based methods, showing their sensitivity to the positional bias in the dataset. 既存のECEモデルでは23~32%の大幅なパフォーマンス低下を観測でき、一部は以前のルールベースの手法よりもパフォーマンスが悪く、データセットにおける位置バイアスに対する感受性を示している。 0.74
We also observe the performance degradation of our proposed KAG. また,提案したKAGの性能劣化も観察した。 0.67
But its performance drop is less significant compared to other models. しかし、他のモデルと比べてパフォーマンス低下はそれほど大きくない。 0.64
The results verify the effectiveness of capturing the semantic dependencies between a candidate clause and the emotion clause via contextual and commonsense knowledge encoding. その結果、文脈的および常識的知識エンコーディングにより、候補節と感情節間の意味的依存関係を捉えることの有効性が検証された。 0.66
4.4 Case Study and Error Analysis To understand how KAG aggregate information based on different paths, we randomly choose two examples to visualise the attention distributions (Eq. 4.4 ケーススタディと誤り分析 異なる経路に基づいてKAGがどのように情報を集約しているかを理解するために,注意分布(Eq。 0.79
4) on different graph nodes (i.e., clauses) 4)異なるグラフノード(すなわち節)について 0.77
Figure 4: Emotion cause extraction when using relative, absolute or no clause positional information. 図4: 相対的、絶対的、あるいは全く条項の位置情報を使用する場合、感情が引き起こされる。 0.57
Our model demonstrates most stable performance without the relative position information. 本モデルでは,相対的な位置情報なしで最も安定した性能を示す。 0.62
relative position. 4.3 Performance under Adversarial Samples In recent years, there have been growing interests in understanding vulnerabilities of NLP systems (Goodfellow et al , 2015; Ebrahimi et al , 2017; Wallace et al , 2019; Jin et al , 2020). 相対的な位置 4.3 敵対的サンプルによるパフォーマンス 近年、NLPシステムの脆弱性を理解することへの関心が高まっている(Goodfellow et al , 2015; Ebrahimi et al , 2017; Wallace et al , 2019; Jin et al , 2020)。 0.77
Adversarial examples explore regions where the model performs poorly, which could help understanding and improving the model. 逆の例では、モデルの性能が悪く、モデルを理解し改善するのに役立ちます。 0.64
Our purpose here is to evaluate if KAG is vulnerable as existing ECE models when the cause clauses are not in proximity to the emotion clause.Therefore, we propose a principled way to generate adversarial samples such that the relative position is no longer an indicative feature for the ECE task. 本研究の目的は,原因節が感情節に近接していない場合に,既存のCEモデルとしてKAGが脆弱であるかどうかを評価することである。
訳抜け防止モード: ここでの目的は、評価することです。 原因節が感情節に近接していない場合、KAGは既存のECEモデルとして脆弱である。 そこで我々は原則的な方法を提案する。 相対位置がもはやECEタスクの指示的特徴でないような逆サンプルを生成する。
0.58
Generation of adversarial examples We generate adversarial examples to trick ECE models, which relies on swapping two clauses Cr1 and Cr2, where r1 denotes the position of the most likely cause clause, while r2 denotes the position of the least likely cause clause. これは2つの節 cr1 と cr2 を交換することに依存しており、r1 は最も可能性の高い原因節の位置を表し、r2 は最も可能性の低い原因節の位置を表す。
訳抜け防止モード: 逆例の生成 私たちはeceモデルを騙すために逆例を生成します。 cr1とcr2という2つの節を交換し r1 は最も可能性の高い原因節の位置を表す。 r2 は最小原因節の位置を表す。
0.57
We identify r1 by locating the most likely cause clause based on its relative position with respect to the emotion clause in a document. 文書中の感情節に対する相対的な位置に基づいて、最も可能性の高い原因節を特定することにより、r1を同定する。 0.59
As illustrated in Figure 1, over half of the cause clauses are immediately before the emotion clause in the dataset. 図1に示すように、原因節の半分以上がデータセットの感情節のすぐ前にあります。 0.57
We assume that the position of a cause clause can be modelled by a Gaussian distribution and estimate the mean and variance directly from the data, which are, {µ, σ2} = {−1, 0.5445}. 因果節の位置はガウス分布によってモデル化され、データから直接平均と分散を推定できる、すなわち {μ, σ2} = {−1, 0.5445} と仮定する。 0.76
The position index r1 can then be sampled from the Gaussian distribution. 位置指数 r1 はガウス分布からサンプリングできる。 0.55
As the sampled value is continuous, we round the value to its nearest integer: サンプル値が連続しているので、最も近い整数に値を丸めます。 0.73
r1 ← (cid:98)g(cid:101), r1 (cid:98)g (cid:101) 0.78
g (cid:118) Gaussian(µ, σ2). g (cid: 118) Gaussian(μ, σ2)。 0.85
(7) 8The adversarial sample generation is independent from (7) 8 反対サンプル生成は独立である 0.85
their training process. 65.4972.4276.7777.08 15.3118.3956.9469.43 15.0917.941.4568.291 525354555657585MANNP AE-DGLRTHNOURSF1(%)r elative positionabsolute positionno position 訓練の過程です 65.4972.4276.7777.08 15.3118.3956.9469.43 15.0917.941.4568.291 52545557585mannpae-d glrthnoursf1(%)relat ive positionabsolute positionno position 0.46
英語(論文から抽出)日本語訳スコア
Discriminator Attacked ECE models 判別器 攻撃型ECEモデル 0.67
48.24 RTHN 48.24 RTHN 0.72
KAG 60.13 57.78 KAG 60.13 57.78 0.68
59.53 MANN 59.53 MANN 0.72
47.24 49.63 47.24 49.63 0.59
PAEDGL RTHN 59.73 パドグリ RTHN 59.73 0.56
KAG PAEDGL MANN 49.62 64.98 48.92 ↓31.76% ↓28.6% ↓ 22.20% ↓16.08% 66.32 51.82 ↓28.45% ↓31.27% ↓21.65% ↓14.35% 63.47 48.63 ↓32.85% ↓ 27.64% ↓ 24.74% ↓18.03% 48.52 62.39 ↓ 33.00% ↓29.67% ↓22.46% ↓19.42% ↓31.51% ↓29.29% ↓22.62% ↓16.97% Ave. Drop(%) Table 2: F1 score and relative drop (marked with ↓) of different ECE models on adversarial samples. KAG PAEDGL MANN 49.62 64.98 48.92 の31.76% の28.6% の22.20% の16.08% 66.32 51.82 の28.45% の31.27% の14.35% の63.47 48.63 の32.85% の27.64% の24.74% の18.03% の48.52 62.39 の33.00% の29.67% の22.46% の19.42% の31.51% の29.29% の22.62% の16.97% のAve(%) 表2: F1 のスコアと、ECEのサンプルの相対的なドロップ(スコア)
訳抜け防止モード: KAG PAEDGL MANN 49.62 64.98 48.92 ↓31.76 % ↓28.6 % ↓ 22.20 % ↓16.08 % 66.32 51.82 ↓28.45 % ↓31.27 % ↓21.65 % ↓14.35 % 63.47 48.63 ↓32.85 % ↓ 27.64 % ↓ 24.74 % ↓18.03 % 48.52 62.39 ↓ 33.00 % ↓29.67 % ↓22.46 % ↓19.42 % ↓31.51 % ↓29.29 % ↓22.62 % ↓16.97 % Ave . 表2 : F1スコアと相対ドロップは, 反対サンプル上で異なるECEモデルの値を示す。
0.56
The listed four ECE models are attacked by the adversarial samples generated from the respective discriminator. 列挙された4つのECEモデルは、それぞれの識別器から生成された敵のサンプルによって攻撃される。 0.55
Our model shows the minimal drop rate comparing to other listed ECE models across all sets of adversarial samples. 本モデルでは,全対向検体を対象とした他のCEモデルと比較し,最小降下率を示す。 0.74
been assigned the largest attention weight as shown in Figure 5. 図5に示すように、最大の注意重みが割り当てられました。 0.64
Note that the path identified is spurious since the emotion of ‘worried’ is triggered by ‘unemployment’ in the ConceptNet, while in the original text, ‘worried’ is caused by the event, ‘Unemployed people cut through the school’. 注意すべき点は、‘worried’の感情がconceptnetの‘unmployment’によって引き起こされるのに対して、‘worried’は‘unrloyed people cut through the school’というイベントによって引き起こされることだ。 0.74
This shows that simply using keywords or entities searching for knowledge paths from commonsense knowledge bases may lead to spurious knowledge extracted. これは、コモンセンスの知識ベースから知識パスを検索するキーワードやエンティティを単に使うだけで、散発的な知識が抽出される可能性があることを示している。 0.52
We will leave the extraction of event-driven commonsense knowledge as future work. イベント駆動のコモンセンス知識の抽出を今後の作業として残します。 0.52
in Figure 5.9 These attention weights show the ‘distance’ between a candidate clause and the emotion clause during the reasoning process. 図5.9これらの注意重みは、推論の過程で、候補節と感情節の間の「距離」を示す。 0.71
The cause clauses are underlined, and keywords are in bold. 原因節はアンダーラインで、キーワードは太字です。 0.50
Ci in brackets indicate the relative clause position to the emotion clause (which is denoted as C0). 括弧のciは、感情節(c0と表記される)に対する相対的な節の位置を示す。 0.65
Ex.1 The crime that ten people were killed shocked the whole country (C−4). Ex.1 10人が死亡した犯罪が全国に衝撃を与えた(C−4)。 0.72
This was due to personal grievances (C−3). これは個人的な不満(c−3)によるものであった。 0.55
Qiu had arguments with the management staff (C−2), and thought the Taoist temple host had molested his wife (C−1). チウは管理スタッフと議論し(c−2)、道教の寺院のホストが妻を嫌悪したと考えた(c−1)。 0.60
He became angry (C0), and killed the host and destroyed the temple (C1). 彼は怒り(C0)、宿主を殺し、寺を破壊した(C1)。 0.85
In Ex.1, the emotion word is ‘angry’, the knowledge path identified by our model from ConceptNet is, “arguments → fight →angry” for Clause C−2, and “molest → irritate →exasperate→angry” for Clause C−1. ex.1 では、感情語は 'angry' であり、conceptnet からモデルによって識別される知識パスは、節 c−2 の "arguments → fight →angry" と節 c−1 の "molest → irritate →exasperate→angry" である。 0.72
Our model assigns the same attention weight to the clauses C−2, C−1 and the emotion clause, as shown in Figure 5. 我々のモデルは、図5に示すように、C−2、C−1および感情節に同じ注意重みを割り当てる。 0.75
This shows that both paths are equally weighted by our model. これは、両方のパスがモデルによって等しく重み付けされていることを示している。 0.47
Due to the K-Edge attention weights, our model can correctly identify both C−2 and C−1 clauses as the cause clauses. K-Edgeの注意重みにより、我々のモデルはC−2節とC−1節の両方を原因節として正しく識別することができる。 0.57
Ex.2 The LongBao Primary school locates between the two villages (C−2). 2 ロングバオ小学校は2つの村の間にある(c−2)。 0.65
Some unemployed people always cut through the school to take a shortcut (C−1). 一部の失業者は、常にショートカット(C−1)を取るために学校を通り抜ける。 0.65
Liu Yurong worried that it would affect children’s study (C0). Liu Yurongは、子どもの研究に影響を及ぼすのではないかと心配した(C0)。 0.64
When he did not have teaching duties (C1), he stood guard outside the school gate (C2). 教職がなければ(C1)、校門(C2)の外で警護をしていた。
訳抜け防止モード: 教職に就いていない場合(C1) 彼は校門の外側(C2)に立っていた。
0.82
In Ex.2, the path identified by our model from ConceptNet for Clause (C−1) is “unemployment → situation → trouble/danger→ worried”. Ex.2 では、ConceptNet for Clause (C−1) のモデルで特定されるパスは "Unmployment → situation → trouble/danger→ worried" である。 0.71
It has 9More cases can be found in the Appendix. あった Appendixには9つのケースがある。 0.62
Figure 5: Attention weights among different graph nodes/clauses on Ex.1 and Ex.2. 図5: Ex.1 と Ex.2 のグラフノード/クロース間の注意重み。 0.71
5 Conclusion and Future Work In this paper, we examine the positional bias in the annotated ECE dataset and investigate the degree of reliance of the clause position information in existing ECE models. 5 結論と今後の課題 この論文では、注釈付きECEデータセットにおける位置バイアスについて検討し、既存のECEモデルにおける節位置情報の信頼度について検討する。 0.72
We design a novel approach for generating adversarial samples. 敵のサンプルを生成するための新しいアプローチをデザインする。 0.62
Moreover, we propose a graph-based model to enhance the semantic dependencies between a candidate clause and a given emotion clause by extracting relevant knowledge paths from ConceptNet. さらに,コンセプションネットから関連する知識経路を抽出することにより,候補節と与えられた感情節間の意味的依存関係を高めるグラフベースモデルを提案する。 0.74
The experimental results show that our proposed method achieves comparative performance to the state-of-the-art methods, and is more robust against adversarial attacks. 実験の結果,提案手法は最先端手法と比較して高い性能を示し,敵攻撃に対してより堅牢であることがわかった。 0.68
Our current model extracts knowledge paths linking two keywords identified in two separate clauses. 現在のモデルは、2つの別々の節で識別された2つのキーワードをリンクする知識パスを抽出する。 0.50
In the future, we will exploit how to incorporate the event-level commonsense knowledge to improve the performance of emotion cause extraction. 将来的には、事象レベルのコモンセンス知識を取り入れて、感情原因抽出の性能向上を図る。 0.50
Acknowledgements This work was funded by the EPSRC (grant no. 承認 この作品はESSRC(grant no.)が出資した。 0.57
EP/T017112/1, EP/V048597/1). EP/T017112/1, EP/V048597/1)。 0.34
HY receives the PhD scholarship funded jointly by the University of Warwick and the Chinese Scholarship Council. HYは、ウォリック大学と中国学術評議会が共同で出資したPhD奨学金を受け取っている。 0.60
YH is supported by a Turing AI Fellowship funded by the UK Research and Innovation (grant no. YHは、イギリスのResearch and Innovationが出資したチューリングAIフェローシップによって支援されている。 0.69
EP/V020579/1). EP/V020579/1)。 0.43
We thank Yizhen Jia and イズヘン・ジーアに感謝します 0.39
0.08670.6130.1570.08 690.0560.0820.0520.2 620.2620.2620.0820.0 0.10.20.30.40.50.60. 7pre4pre3pre3pre1emo tionnext1next2Attent ion WeightsClause LocationEx.1Ex.2 0.08670.6130.1570.08 690.0560.0820.0520.2 620.2620.2620.0820.0 0.10.20.30.50.60.7pr e4pre3pre3pre1emotio nnext1next2Attention WeightsClause LocationEx.1Ex 0.08
英語(論文から抽出)日本語訳スコア
Daoye Zhu for their valuable work on earlier code framework of this paper. Daoye Zhu氏は、この論文の初期のコードフレームワークに関する貴重な研究に感謝している。 0.54
We also thank the anonymous reviewers for their valuable comments. また、匿名レビュワーたちの貴重なコメントに感謝します。 0.52
References Antoine Bordes, Nicolas Usunier, Alberto GarciaDuran, Jason Weston, and Oksana Yakhnenko. Antoine Bordes、Nicolas Usunier、Alberto GarciaDuran、Jason Weston、Oksana Yakhnenkoなどを参照。 0.76
2013. Translating embeddings for modeling multirelational data. 2013. マルチリレーショナルデータモデリングのための埋め込みの翻訳 0.76
In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26, NIPS13, pages 2787–2795. C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26, NIPS13, page 2787–2795。 0.91
Ying Chen, Wenjun Hou, Xiyao Cheng, and Shoushan Li. Ying Chen, Wenjun Hou, Xiyao Cheng, and Shoushan Li 0.74
2018. Joint learning for emotion classification and emotion cause detection. 2018. 感情分類と感情原因検出のための共同学習 0.81
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 646–651, Brussels, Belgium. 2018 Conference on Empirical Methods in Natural Language Processing, page 646–651, Brussels, Belgium
訳抜け防止モード: 自然言語処理における実証的手法に関する2018年会議のまとめ 646-651頁、ブリュッセル、ベルギー。
0.80
Association for Computational Linguistics. Xiyao Cheng, Ying Chen, Bixiao Cheng, Shoushan Li, and Guodong Zhou. 計算言語学会会員。 Xiyao Cheng、Ying Chen、Bixiao Cheng、Shoushan Li、Guodong Zhou。 0.60
2017a. An emotion cause corpus for chinese microblogs with multiple-user structures. 2017年。 マルチユーザ構造を持つ中国語マイクロブログのための感情誘発コーパス 0.66
ACM Transactions on Asian and LowResource Language Information Processing, 17:1– 19. ACM Transactions on Asian and Low Resource Language Information Processing, 17:1–19。 0.89
Xiyao Cheng, Ying Chen, Bixiao Cheng, Shoushan Li, and Guodong Zhou. Xiyao Cheng、Ying Chen、Bixiao Cheng、Shoushan Li、Guodong Zhou。 0.67
2017b. An emotion cause corpus for chinese microblogs with multiple-user structures. 2017年。 マルチユーザ構造を持つ中国語マイクロブログのための感情誘発コーパス 0.59
ACM Transaction Asian Low-Res. ACM Transaction Asian Low-Res 0.89
for Lang. Inf. ラングのために Inf 0.48
Process., 17(1). 第17条第17条第1項。 0.51
Jiayuan Ding and Mayank Kejriwal. Jiayuan DingとMayank Kejriwal。 0.80
2020. An experimental study of the effects of position bias on emotion causeextraction. 2020. 位置バイアスが感情的原因抽出に及ぼす影響に関する実験的研究 0.84
CoRR, abs/2007.15066. CoRR, abs/2007.15066。 0.60
Zixiang Ding, Huihui He, Mengran Zhang, and Rui Xia. Zixiang Ding、Huihui He、Mengran Zhang、Rui Xia。 0.64
2019. From independent prediction to reordered prediction: Integrating relative position and global label information to emotion cause identification. 2019. 独立予測から順序付け予測へ: 相対位置とグローバルラベル情報を統合することで感情が識別される。 0.81
In The Thirty-Third AAAI Conference on Artificial Intelligence, AAAI 2019, pages 6343–6350. The Thirty-Third AAAI Conference on Artificial Intelligence, AAAI 2019, page 6343–6350。 0.95
Javid Ebrahimi, Anyi Rao, Daniel Lowd, and Dejing Dou. Javid Ebrahimi、Anyi Rao、Daniel Lowd、Dejing Dou。 0.70
2017. Hotflip: White-box adversarial arXiv preprint examples for text classification. 2017. Hotflip: テキスト分類のためのWhite-box adversarial arXivプリプリント例。 0.81
arXiv:1712.06751. arXiv:1712.06751。 0.48
Chuang Fan, Hongyu Yan, Jiachen Du, Lin Gui, Lidong Bing, Min Yang, Ruifeng Xu, and Ruibin Mao. chuang fan、hongyu yan、jiachen du、lin gui、lidong bing、min yang、ruifeng xu、ruibin mao。 0.57
2019. A knowledge regularized hierarchical In Proceedapproach for emotion cause analysis. 2019. 感情原因分析のための階層型In Proceedapproachの知識正規化 0.77
ings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5614–5624, Hong Kong, China. 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), page 5614–5624, Hong Kong, China 0.81
Association for Computational Linguistics. Ian J. Goodfellow, Jonathon Shlens, and Christian Szegedy. 計算言語学会会員。 Ian J. Goodfellow、Jonathon Shlens、Christian Szegedy。 0.64
2015. Explaining and harnessing adversarial examples. 2015. 敵の例を説明し、活用する。 0.65
Lin Gui, Jiannan Hu, Yulan He, Ruifeng Xu, Qin Lu, and Jiachen Du. Lin Gui, Jiannan Hu, Yulan He, Ruifeng Xu, Qin Lu, Jiachen Du 0.70
2017. A question answering apIn Proceedproach for emotion cause extraction. 2017. 感情の原因抽出のためのapIn Proceedproachへの回答 0.79
ings of the 2017 Conference on Empirical Methods in Natural Language Processing, EMNLP 2017, Copenhagen, Denmark, September 9-11, 2017, pages 1593–1602. ings of the 2017 conference on empirical methods in natural language processing, emnlp 2017, copenhagen, denmark, september 9-11, 2017 pages 1593–1602 (英語) 0.91
Lin Gui, Dongyin Wu, Ruifeng Xu, Qin Lu, and Yu Zhou. Lin Gui, Dongyin Wu, Ruifeng Xu, Qin Lu, Yu Zhou 0.67
2016. Event-driven emotion cause extraction with corpus construction. 2016. イベント駆動感情はコーパス構築による抽出を引き起こす。 0.74
In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, EMNLP 2016, Austin, Texas, USA, November 1-4, 2016, pages 1639–1649. 2016 Conference on Empirical Methods in Natural Language Processing, EMNLP 2016 Austin, Texas, USA, November 1-4, 2016”. 1639–1649. 2016年11月1日閲覧。 0.85
Di Jin, Zhijing Jin, Joey Tianyi Zhou, and Peter Szolovits. Di Jin、Zhijing Jin、Joey Tianyi Zhou、Peter Szolovits。 0.70
2020. Is bert really robust? 2020. バートは本当に頑丈か? 0.73
a strong baseline for natural language attack on text classification In Proceedings of the AAAI conand entailment. テキスト分類に基づく自然言語攻撃の強力なベースライン AAAIconand Entailmentの証明。 0.63
ference on artificial intelligence, volume 34, pages 8018–8025. 人工知能への言及、34巻8018-8025頁。 0.54
Evgeny Kim and Roman Klinger. エヴゲニー・キムと ローマ・クリンガー 0.53
2018. Who feels what and why? 2018年。 誰が何と理由を感じる? 0.59
annotation of a literature corpus In Proceedings with semantic roles of emotions. 感情の意味的役割を有する手続きにおける文学コーパスの注釈 0.73
of the 27th International Conference on Computational Linguistics, pages 1345–1359, Santa Fe, New Mexico, USA. 第27回計算言語学国際会議、1345-1359ページ、ニューメキシコ州サンタフェ。 0.59
Association for Computational Linguistics. Yoon Kim. 計算言語学会会員。 Yoon Kim 0.56
2014. Convolutional neural networks In Proceedings of the for sentence classification. 2014. for文分類の手続きにおける畳み込みニューラルネットワーク 0.75
2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1746–1751, Doha, Qatar. 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), page 1746–1751, Doha, Qatar 0.81
Sophia Yat Mei Lee, Ying Chen, and Chu-Ren Huang. Sophia Yat Mei Lee, Ying Chen, Chu-Ren Huang 0.75
2010. A text-driven rule-based system for emotion cause detection. 2010. 感情原因検出のためのテキスト駆動ルールベースシステム 0.83
In Proceedings of the NAACL HLT 2010 Workshop on Computational Approaches to Analysis and Generation of Emotion in Text, pages 45–53, Los Angeles, CA. The Proceedings of the NAACL HLT 2010 Workshop on Computational Approachs to Analysis and Generation of Emotion in Text, page 45-53, Los Angeles, CA 0.81
Association for Computational Linguistics. Xiangju Li, Shi Feng, Daling Wang, and Yifei Zhang. 計算言語学会会員。 Xiangju Li, Shi Feng, Daling Wang, Yifei Zhang 0.57
2019. Context-aware emotion cause analysis with multi-attention-base d neural network. 2019. マルチアテンションに基づくニューラルネットワークを用いた文脈認識感情分析 0.73
KnowledgeBased Systems, 174:205 – 218. 知識ベースシステム、174:205 - 218。 0.67
Xiangju Li, Kaisong Song, Shi Feng, Daling Wang, and Yifei Zhang. Xiangju Li, Kaisong Song, Shi Feng, Daling Wang, Yifei Zhang 0.65
2018. A co-attention neural network model for emotion cause analysis with emotional context awareness. 2018. 感情的文脈認識を伴う感情原因分析のための協調ニューラルネットワークモデル 0.79
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Brussels, Belgium, October 31 - November 4, 2018, pages 4752–4757. 2018年10月31日-11月4日、ベルギーのブリュッセル自然言語処理における経験的手法に関する会議の議事録4752-4757頁。 0.74
Kai Gao, Hua Xu, and Jiushuo Wang. カイ・ガオ、ア・xu、jiushuo wang。 0.49
2015. A rulebased approach to emotion cause detection for chinese micro-blogs. 2015. 中国のマイクロブログにおける感情検出のためのルールベースアプローチ 0.77
Expert Systems with Applications, 42(9):4517 – 4528. エキスパートシステムとアプリケーション (42(9):4517 - 4528)。 0.81
Bill Yuchen Lin, Xinyue Chen, Jamin Chen, and Xiang Ren. Bill Yuchen Lin, Xinyue Chen, Jamin Chen, Xiang Ren 0.65
2019. Kagnet: Knowledge-aware graph networks for commonsense reasoning. 2019. Kagnet: 常識推論のための知識対応グラフネットワーク。 0.80
In Proceedings of the 2019 Conference on Empirical Methods 実証的手法に関する2019年会議のまとめ 0.71
英語(論文から抽出)日本語訳スコア
Rui Xia, Mengran Zhang, and Zixiang Ding. Rui Xia、Mengran Zhang、Zixiang Ding。 0.64
2019. RTHN: A rnn-transformer hierarchical network for In Proceedings of the emotion cause extraction. 2019. RTHN:感情が引き起こされる過程の推論のためのrnn変換器階層ネットワーク。 0.81
Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI 2019, Macao, China, August 10-16, 2019, pages 5285–5291. Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI 2019, Macao, China, August 10-16, 2019, page 5285–5291。 0.92
Wenhan Xiong, Thien Hoang, and William Yang Wang. Wenhan Xiong、Thien Hoang、William Yang Wang。 0.67
2017. Deeppath: A reinforcement learning method for knowledge graph reasoning. 2017. Deeppath:知識グラフ推論のための強化学習手法。 0.82
In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP 2017), Copenhagen, Denmark. 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP 2017) はデンマークのコペンハーゲンで開催された。 0.77
ACL. B. Xu, H. Lin, Y. Lin, Y. Diao, L. Yang, and K. Xu. ACL。 B.Xu, H. Lin, Y. Lin, Y. Diao, L. Yang, K. Xu 0.88
2019. Extracting emotion causes using learning to rank methods from an information retrieval perspective. 2019. 情報検索の観点からのランク付け手法の学習による感情の抽出 0.78
IEEE Access, 7:15573–15583. IEEE Access, 7:15573–15583。 0.67
Ruifeng Xu, Jiannan Hu, Qin Lu, Dongyin Wu, and Lin Gui. Ruifeng Xu, Jiannan Hu, Qin Lu, Dongyin Wu, Lin Gui 0.67
2017. An ensemble approach for emotion cause detection with event extraction and multiTsinghua Science and Technology, kernel svms. 2017. 感情のアンサンブルアプローチは、イベント抽出とマルチTsinghua Science and Technology, kernel svmsによって検出される。 0.80
22(6):646–659. 22(6):646–659. 0.82
Xinyi Yu, Wenge Rong, Zhuo Zhang, Yuanxin Ouyang, and Zhang Xiong. 新y Yu, Wnge Rong, Zhuo Zhang, Yuanxin Ouyang, Zhang Xiong 0.66
2019. Multiple level hierarchical network-based clause selection for emotion cause extraction. 2019. 感情原因抽出のための多レベル階層ネットワークに基づく節選択 0.82
IEEE Access, 7:9071–9079. IEEE Access, 7:9071–9079。 0.66
in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pages 2829–2839. In Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, page 2829–2839。 0.94
Thang Luong, Hieu Pham, and Christopher D. Manning. Thang Luong、Hieu Pham、Christopher D. Manning。 0.72
2015. Effective approaches to attention-based In Proceedings of the neural machine translation. 2015. 神経機械翻訳の推論における注意に基づく効果的なアプローチ 0.80
2015 Conference on Empirical Methods in Natural Language Processing, EMNLP 2015, Lisbon, Portugal, September 17-21, 2015, pages 1412–1421. 2015 Conference on Empirical Methods in Natural Language Processing, EMNLP 2015 Lisbon, Portugal, September 17-21, 2015 page 1412–1421 0.82
Laura Oberl¨ander and Roman Klinger. ラウラ・オーベル・サンダーとローマ・クリンガー。 0.50
2020. Sequence labeling vs. clause classification for english emotion stimulus detection. 2020. 英語感情刺激検出のためのシーケンスラベリングと節分類 0.76
In Proceedings of the 9th Joint Conference on Lexical and Computational Semantics (*SEM 2020), Barcelona, Spain. 第9回 lexical and computational semantics(*sem 2020)でスペイン・バルセロナで開催された。 0.55
Association for Computational Linguistics. Soujanya Poria, Navonil Majumder, Devamanyu Hazarika, Deepanway Ghosal, Rishabh Bhardwaj, Samson Yu Bai Jian, Romila Ghosh, Niyati Chhaya, Alexander Gelbukh, and Rada Mihalcea. 計算言語学会会員。 Soujanya Poria, Navonil Majumder, Devamanyu Hazarika, Deepanway Ghosal, Rishabh Bhardwaj, Samson Yu Bai Jian, Romila Ghosh, Niyati Chhaya, Alexander Gelbukh, Rada Mihalcea 0.63
2020. RecarXiv ognizing emotion cause in conversations. 2020. recarxiv 会話中の感情をオグニゼーションする。 0.74
preprint arXiv:2012.11820. arXiv:2012.11820 0.64
Hannah Rashkin, Antoine Bosselut, Maarten Sap, Kevin Knight, and Yejin Choi. Hannah Rashkin, Antoine Bosselut, Maarten Sap, Kevin Knight, Yejin Choi 0.70
2018. Modeling naive psychology of characters in simple commonIn Proceedings of the 56th Annual sense stories. 2018. 第56回年次センスストーリーの単純コモン・プロシージャにおける登場人物のナイーブ心理学のモデル化 0.73
Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 2289–2299, Melbourne, Australia. The Association for Computational Linguistics (Volume 1: Long Papers), page 2289–2299, Melbourne, Australia 0.71
Irene Russo, Tommaso Caselli, Francesco Rubino, Ester Boldrini, and Patricio Mart´ınez-Barco. Irene Russo、Tommaso Caselli、Francesco Rubino、Ester Boldrini、Patricio Mart ́ınez-Barco。 0.83
2011. Emocause: An easy-adaptable approach to extract emotion cause contexts. 2011. Emocause: 感情を抽出する簡単な適応可能なアプローチは、コンテキストを引き起こす。 0.74
In Proceedings of the 2nd Workshop on Computational Approaches to Subjectivity and Sentiment Analysis, WASSA@ACL 2011, Portland, OR, USA, June 24, 2011, pages 153–160. 2nd workshop on computational approach to subjectivity and sentiment analysis, wassa@acl 2011, portland, or, usa, june 24, 2011, pages 153–160. 2011年6月24日閲覧。 0.81
Michael Schlichtkrull, Thomas N. Kipf, Peter Bloem, Rianne vanden Berg, and Max Welling. Michael Schlichtkrull、Thomas N. Kipf、Peter Bloem、Rianne vanden Berg、Max Welling。 0.75
2018. Modeling relational data with graph convolutional networks. 2018. グラフ畳み込みネットワークを用いた関係データのモデリング 0.84
In European Semantic Web Conference. 欧州セマンティックウェブ会議に参加。 0.76
Robyn Speer, Joshua Chin, and Catherine Havasi. Robyn Speer、Joshua Chin、Catherine Havasi。 0.63
2017. Conceptnet 5.5: An open multilingual graph of general knowledge. 2017. Conceptnet 5.5: 一般知識のオープン多言語グラフ。 0.86
In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, February 4-9, 2017, San Francisco, California, USA, pages 4444–4451. 2017年2月4日-9日、第33回人工知能会議(aaai conference on artificial intelligence)の議事録において、サンフランシスコ、カリフォルニア州、米国、ページ4444-4451。
訳抜け防止モード: 人工知能に関する第1回AAAI会議 2017年2月4日 - 2017年2月9日、カリフォルニア州サンフランシスコ。 4444-4451頁。
0.69
Eric Wallace, Shi Feng, Nikhil Kandpal, Matt Gardner, and Sameer Singh. Eric Wallace, Shi Feng, Nikhil Kandpal, Matt Gardner, Sameer Singh 0.70
2019. Universal adversarial triggers for attacking and analyzing nlp. 2019. nlpを攻撃および分析するためのユニバーサル・コンバーサリー・トリガー。 0.71
arXiv preprint arXiv:1908.07125. arXiv preprint arXiv:1908.07125 0.71
Rui Xia and Zixiang Ding. Rui XiaとZixiang Ding。 0.79
2019. Emotion-cause pair extraction: A new task to emotion analysis in texts. 2019. 感情起因ペア抽出 : テキストにおける感情分析のための新しい課題 0.83
In Proceedings of the 57th Conference of the Association for Computational Linguistics, ACL 2019, Florence, Italy, July 28- August 2, 2019, Volume 1: Long Papers, pages 1003–1012. The 57th Conference of the Association for Computational Linguistics, ACL 2019, Florence, Italy, July 28-8月2日, Volume 1: Long Papers, page 1003–1012 0.79
英語(論文から抽出)日本語訳スコア
A Model Architecture モデルアーキテクチャ 0.53
In this section, we describe the details of the four main components in our model: contextual modelling, knowledge path encoding, clause graph update and cause clause classification. 本稿では、文脈モデル、知識経路符号化、節グラフ更新、原因節分類の4つの主要構成要素の詳細について述べる。
訳抜け防止モード: 本稿では,本モデルにおける4つの主要コンポーネントの詳細について述べる。 知識パスのエンコーディング、節グラフの更新、原因節の分類。
0.74
The dataset has 2,105 documents. データセットには2,105のドキュメントがある。 0.55
The maximum number of clauses in a document is 75 and the maximum number of words per clause is 45. 文書中の節の最大数は75で、1節あたりの単語の最大数は45である。 0.75
So we first pad the input documents into a matrix I with the shape of [2105, 75, 45]. そこで、まず入力文書を[2105, 75, 45]の形をしたマトリックスIにパディングする。 0.77
A.1 Contextual Modelling a. token → clause We first apply a 1-layer BiLSTM of 100 hidden units to obtain word embeddings, w ∈ R200. A.1 Contextual Modelling a. token → clause 最初に100個の隠れ単位からなる1層BiLSTMを適用して単語埋め込み、w ∈ R200を得る。 0.78
We then use two linear transformation layers (hidden units are [200,200],[200,1]) to map the original w to a scalar attention score α, then perform a weighted aggregation to generate the clause representation ˆCi ∈ R200. 次に、2つの線形変換層(hidden unit is [200,200],[200,1])を使用して元のwをスカラーアテンションスコアαにマッピングし、重み付けアグリゲーションを行い、節表現 sci ∈ r200を生成する。 0.81
b. clause → document We feed the clause representations into a Transformer. b. 節 → 文書 節表現を Transformer に変換する。 0.67
It has 3 stacked blocks, with the multi-head number set to 5, and the dimension of key, value, query is all set to 200. スタックされたブロックは3つあり、マルチヘッド数は5に設定され、キー、値、クエリの次元はすべて200に設定される。 0.77
The query vector is the emotion clause representation ˆCE ∈ R200, the key and value representations are candidate clause representations, also with 200 dimensions. 問合せベクトルは感情節の表現 >CE ∈ R200 であり、キーと値の表現は200次元の候補節の表現である。 0.71
Finally, the updated clause representations are aggregated via Dot-Attention to generate the document representation D ∈ R200. 最後に、更新された節表現をDot-Attentionを介して集約し、文書表現D ∈ R200を生成する。 0.61
A.2 Knowledge Path Encoding For each candidate clause and the emotion clause, we extract knowledge paths from ConceptNet and only select K paths. A.2 知識パスエンコーディング 各候補節と感情節に対して,ConceptNet から知識パスを抽出し,K パスのみを選択する。 0.80
The values of K is set to 15, since the median of the number of paths between a candidate clause and the emotion clause is 15 in our dataset. 我々のデータセットでは候補節と感情節の間のパス数の中央値が15であるため、kの値は15に設定される。 0.77
We use the same Bi-LSTM described in Section A.1 to encode each knowledge path and generate the K number of path representations {pit}K t=1 between the i-th clause and the emotion clause. 我々は、セクションA.1で記述された同じBi-LSTMを用いて、各知識経路を符号化し、i-th節と感情節の間にK個の経路表現 {pit}K t=1を生成する。 0.65
Then, the document representation D is applied as the query to attend to each path in {pit} to generate the final context-aware path representation si ∈ R200. 次に、文書表現Dを {pit} の各パスへのクエリとして適用し、最終的なコンテキスト認識パス表現 si ∈ R200 を生成する。 0.77
A.3 Clause Graph Update The graph nodes are initialised by clause presentations, with the feature dimension 200. a.3節グラフの更新 グラフノードは、特徴次元200で、節のプレゼンテーションによって初期化される。 0.64
To calculate the attention weights eiE in R-GCNs, We use the non-linearly transformed hi + si as the query, the non-linearly transformed hE as the value and key. R-GCN における注目重み eiE を計算するために、クエリとして非線形変換 hi + si を用い、非線形変換 hE を値とキーとして用いる。 0.62
The non-linear functions are independent Selu layers. 非線形関数は独立なselu層である。 0.75
i }N A.4 Cause Clause Classification The MLP with [400,1] hidden units takes the concatenation of each candidate node {hL i=1 and the emotion node representation hL E to predict the logit, after which, a softmax layer is applied to predict the probability of the cause clause. i }N A.4 caused Clause Classification MLP with [400,1] hidden units それぞれの候補ノード {hL i=1 と感情ノード表現 hL E を連結してロジットを予測し、その後、ソフトマックス層を適用して原因節の確率を予測する。 0.82
B Training Details for KAG We randomly split the datasets into 9:1 (train/test). B KAGのトレーニング詳細 ランダムにデータセットを9:1(トレイン/テスト)に分割します。 0.65
For each split, we run 50 iterations to get the best model on the validation set, which takes an average time of around 23 minutes per split, when conducted on a NVIDIA GTX 1080Ti. NVIDIA GTX 1080Ti上で行う場合、分割毎に平均23分ほどかかるバリデーションセット上で最高のモデルを取得するために50回のイテレーションを実行します。 0.66
For each split, we test the model on the test set at the end of each iteration and keep the best resulting F1 of the split. 各分割について、各イテレーションの最後にテストセットでモデルをテストし、最も優れた結果の分割F1を維持します。 0.80
The number of model parameters is 1,133,002. モデルパラメータの数は 1,133,002 である。 0.70
Hyper-parameter Search We use the grid search to find the best parameters for our model on the validation data, and report in the following the hyper-parameter values providing the best performance. ハイパーパラメータ検索 私たちは、バリデーションデータ上でモデルの最良のパラメータを見つけるためにグリッド検索を使用し、以下のハイパーパラメータ値で最高のパフォーマンスを報告します。 0.81
• The word embeddings used to initialise the Bi-LSTM is provided by NLPCC10. • Bi-LSTM を初期化するための単語埋め込みは NLPCC10 によって提供される。 0.70
It was pre-trained on a 1.1 million Chinese Weibo corpora following the Word2Vec algorithm. Word2Vecアルゴリズムに従って、1100万の中国のWeiboコーパスで事前訓練された。 0.57
The word embedding dimension is set to 200. 埋め込み次元の語は200に設定される。 0.77
• The position embedding dimension is set to 50, randomly initialised with the uniform distribution (-0.1,0.1). • 位置埋め込み次元は50に設定され、一様分布(-0.1,0.1)でランダムに初期化される。 0.68
• The number of Transformer blocks is 2 and • Transformer ブロックの数は 2 と 2 である。 0.84
the number of graph layers is 3. グラフ層の数は3である。 0.86
• To regularise against over-fitting, we employ dropout (0.5 in the encoder, 0.2 in the graph layer). • オーバーフィッティングに対して正規化するために、ドロップアウト(エンコーダ0.5、グラフ層0.2)を採用します。 0.68
• The network is trained using the the Adam optimiser with a mini-batch size 64 and a learning rate η = 0.005. • ネットワークはミニバッチサイズ64と学習率η = 0.005のadam optimiserを用いて訓練される。 0.79
The parameters of our model are initialised with Glorot initialisation. モデルのパラメータはglorot初期化で初期化されます。 0.76
C Error Analysis We perform error analysis to identify the limitations of the proposed model. Cエラー解析 提案したモデルの限界を特定するためにエラー解析を行う。 0.88
In the following examples (Ex.1 and Ex.2), the cause clauses are in bold, our predictions are underlined. 以下の例(Ex.1とEx.2)では、原因節は太字であり、我々の予測は下線である。 0.59
10https://github.com /NUSTM/RTHN/tree/mas ter/data 10https://github.com /NUSTM/RTHN/tree/mas ter/data 0.25
英語(論文から抽出)日本語訳スコア
0.79, while Annotator 2 achieved 0.938 agreement with the cohen’s kappa value of 0.72. 一方 Annotator 2 は Cohen の Kaappa 値 0.72 と0.938 の合意に達した。 0.71
This aligns with our intuition that an emotion expressed in text is triggered by a certain event, rather than determined by relative clause positions. これは、テキストで表される感情は、相対的な節の位置によって決定されるのではなく、ある出来事によって引き起こされるという私たちの直感と一致する。 0.48
A good ECE model should be able to learn a correlation between an event and its associated emotion. 優れたECEモデルは、イベントとその関連する感情の間の相関を学習できるべきです。 0.85
This also motivates our proposal of a knowledge-aware model which leverages commonsense knowledge to explicitly capture event-emotion relationships. これはまた、commonsenseの知識を利用してイベントと感情の関係を明示的に捉える知識認識モデルの提案を動機付ける。 0.56
Ex.1 Some kind people said (C−6), if Wu Xiaoli could find available kidneys (C−5), they would like to donate for her surgery (C−4). Ex.1 Wu Xiaoliが利用可能な腎臓(C−5)を見つけることができれば、彼女の手術(C−4)に寄付したいという意見もある(C−6)。 0.70
4000RMB donation had been sent to Xiaoli (C−3), Qiu Hua said (C−2). キヤオリ(C−3)に4000RMBの寄付が送られたと、ケイウ・フア(C−2)は述べた。 0.55
The child’s desire to survival shocked us (C−1). 子どもの生存への欲求が我々に衝撃を与えた(C−1)。 0.65
The family’s companion was touching (C0). 家族の仲間が触れていた(C0)。 0.81
Wish kind people will be ready to give a helping hand (C1). 親切な人は手伝う準備ができていることを願います(c1)。 0.73
Help the family in difficulty (C2). 難易度で家族を助ける(C2)。 0.85
In the first example Ex.1, our model identifies the keyword survival in C−1 and extracts several paths from ‘survival’ to ‘touching’. 最初の例であるex.1では、c−1のキーワードサバイバルを特定し、'survival'から'touching'へのいくつかのパスを抽出する。 0.58
However, the main event in clause C−1 concerns desire rather than survival. しかし、C−1節の主な出来事は、生存よりも欲求に関するものである。 0.60
Our current model detects the emotion reasoning process from ConceptNet based on keywords identified in text, and inevitably introduces spurious knowledge paths to model learning. 現在のモデルは、テキストで識別されたキーワードに基づいて、conceptnetから感情推論プロセスを検出し、モデル学習にスプリアス知識パスを必然的に導入する。 0.62
Ex.2 I have only one daughter (C0), and a granddaughter of 8 year-old (C−10). 元2:娘は1人(c0)、孫娘は8歳(c−10)。 0.67
I would like to convey these memory to her (C−9). 私はこれらの記憶を彼女に伝えたい(c−9)。 0.72
Last Spring Festival (C−8), I gave the DVD away to my granddaughter (C−7). 去年の春祭り(C−8)では、孫娘(C−7)にDVDを渡しました。 0.71
I hope she can inherit my memory (C−6). 私の記憶を継承できることを願う(c−6)。 0.62
Thus (C−5), I feel like that my ages become eternity (C−4). したがって(c−5)、私の年齢が永遠になるように感じる(c−4)。 0.70
Sun Qing said (C−3). Sun Qing は (C-3)。 0.75
His father is a sensitive and has great passion for his life (C−2). 父親は敏感で、生涯に大きな情熱を持っている(C-2)。 0.72
He did so (C−1). 彼はそうした(C−1)。 0.69
Making me feel touched (C0). 感動させる(C0)。 0.61
His daughter said (C1). 娘が言った(c1)。 0.72
In the Ex 2, our model detected the passion as a keyword and extracted knowledge paths between the clause C−2 and the emotion clause. Ex 2では,情動をキーワードとして検出し,C-2節と感情節の知識経路を抽出した。 0.65
However, it ignores the semantic dependency between the clause C−1 and the emotion clause. しかし、c−1と感情節の間の意味的依存関係を無視する。 0.59
It is therefore more desirable to consider semantic dependencies or discourse relations between clauses/sentences for emotion reasoning path extraction from external commonsense knowledge sources. したがって、外部コモンセンス知識源からの感情推論経路抽出のための意味的依存関係や節間関係を考慮することが望ましい。 0.72
D Human Evaluation on the Generated d. 生成物の人間評価 0.77
Adversarial Samples The way adversarial examples generated changes the order of the original document clauses. 対立サンプル 逆例の生成方法は、元の文書節の順序を変える。 0.65
Therefore, we would like to find out if such clause reordering changes the original semantic meaning and if these adversarial samples can be used to evaluate on the same emotion cause labels. したがって、そのような節の並べ替えが本来の意味的意味を変化させるかどうか、また、これらの対立するサンプルが同一の感情によってラベルを評価できるかどうかを見極めたい。 0.56
We randomly selected 100 adversarial examples and ask two independent annotators to manually annotate emotion cause clauses based on the same annotation scheme of the ECE dataset. 我々はランダムに100の逆例を選択し、ECEデータセットの同じアノテーションスキームに基づいて2つの独立したアノテータに感情原因節を手動でアノテートするよう依頼した。
訳抜け防止モード: 100の敵の例をランダムに選んで eceデータセットの同じアノテーションスキームに基づいて、感情を手動で注釈付けする2つの独立した注釈器。
0.61
Compared to the original annotations, Annotator 1 achieved 0.954 agreement with the cohen’s kappa value of オリジナルのアノテーションと比較すると、Annotator 1はCohenのkappa値と0.954の合意に達した。 0.64
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。