論文の概要: Transformer-Encoder-GRU (T-E-GRU) for Chinese Sentiment Analysis on
Chinese Comment Text
- arxiv url: http://arxiv.org/abs/2108.00400v1
- Date: Sun, 1 Aug 2021 08:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 06:30:42.881391
- Title: Transformer-Encoder-GRU (T-E-GRU) for Chinese Sentiment Analysis on
Chinese Comment Text
- Title(参考訳): 中国語注釈文の感性分析のためのトランスフォーマーエンコーダGRU(T-E-GRU)
- Authors: Binlong Zhang, Wei Zhou
- Abstract要約: 変換器エンコーダとGRUを組み合わせた中国感情分析のためのT-E-GRUを提案する。
中国語の注釈文における句読点の混同を考慮し,句読点を文セグメンテーション能力で選択的に保持する。
- 参考スコア(独自算出の注目度): 4.23836170294948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chinese sentiment analysis (CSA) has always been one of the challenges in
natural language processing due to its complexity and uncertainty. Transformer
has succeeded in capturing semantic features, but it uses position encoding to
capture sequence features, which has great shortcomings compared with the
recurrent model. In this paper, we propose T-E-GRU for Chinese sentiment
analysis, which combine transformer encoder and GRU. We conducted experiments
on three Chinese comment datasets. In view of the confusion of punctuation
marks in Chinese comment texts, we selectively retain some punctuation marks
with sentence segmentation ability. The experimental results show that T-E-GRU
outperforms classic recurrent model and recurrent model with attention.
- Abstract(参考訳): 中国語感情分析(csa)は、その複雑さと不確実性から、自然言語処理における課題の1つである。
トランスフォーマは意味的特徴をキャプチャすることに成功しているが、シーケンス特徴をキャプチャするために位置符号化を使用するため、リカレントモデルに比べて大きな欠点がある。
本稿では, トランスフォーマーエンコーダとGRUを組み合わせた中国語感情分析のためのT-E-GRUを提案する。
我々は中国の3つのコメントデータセットの実験を行った。
中国語のコメントテキストにおける句読点の混同を考慮し,文節化能力のある句読点を選択的に保持する。
実験結果から,T-E-GRUは古典的再帰モデルおよび再帰モデルよりも注目度が高いことがわかった。
関連論文リスト
- Word Order in English-Japanese Simultaneous Interpretation: Analyses and Evaluation using Chunk-wise Monotonic Translation [13.713981533436135]
本稿では,ソース言語の単語順に従う単調翻訳の特徴を同時解釈(SI)で解析する。
NAIST英語と日本語の単調翻訳評価データセットを用いて,チャンクワイド単調翻訳(CMT)文の特徴を解析した。
さらに,既存の音声翻訳(ST)と同時音声翻訳(simulST)モデルからの出力を評価し,CMT文の特徴について検討した。
論文 参考訳(メタデータ) (2024-06-13T09:10:16Z) - Chinese Financial Text Emotion Mining: GCGTS -- A Character
Relationship-based Approach for Simultaneous Aspect-Opinion Pair Extraction [7.484918031250864]
中国の財務文献からのアスペクト・オピニオン・ペア抽出(AOPE)は、微粒テキスト感情分析の専門課題である。
従来の研究は主に、この抽出プロセスを容易にするためにグリッドモデル内のグリッドアノテーションスキームの開発に重点を置いてきた。
我々は、GCGTS(Graph-based Character-level Grid Tagging Scheme)と呼ばれる新しい手法を提案する。
GCGTS法は、グラフ畳み込みネットワーク(GCN)を用いた構文構造を明示的に取り入れ、同じ意味単位(中国語の単語レベル)内で文字の符号化を統一する。
論文 参考訳(メタデータ) (2023-08-04T02:20:56Z) - Discourse Representation Structure Parsing for Chinese [8.846860617823005]
本研究では,中国語意味表現のためのラベル付きデータがない場合の中国語意味解析の実現可能性について検討する。
そこで本研究では,中国語意味解析のためのテストスイートを提案し,解析性能の詳細な評価を行う。
実験の結果,中国語の意味解析の難易度は,主に副詞が原因であることが示唆された。
論文 参考訳(メタデータ) (2023-06-16T09:47:45Z) - Can Transformer be Too Compositional? Analysing Idiom Processing in
Neural Machine Translation [55.52888815590317]
リテラル表現とは異なり、イディオムの意味はその部分から直接従わない。
NMTモデルは、しばしばイディオムを正確に、過剰に生成し、文字通り翻訳することができない。
支配的なNMTモデルであるTransformerの力学において,イディオムの非合成性が反映されているかを検討する。
論文 参考訳(メタデータ) (2022-05-30T17:59:32Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - TransCouplet:Transformer based Chinese Couplet Generation [1.084959821967413]
漢詩は、古代中国語との複雑な文法からなる詩の形式である。
本稿では,変換器を用いたシーケンス・ツー・シーケンス・カップル生成モデルを提案する。
また,Glyph,PinYin,Part-of-Speechのタグ付けを2つの文法規則に基づいて評価した。
論文 参考訳(メタデータ) (2021-12-03T04:34:48Z) - Investigating the Reordering Capability in CTC-based Non-Autoregressive
End-to-End Speech Translation [62.943925893616196]
接続型時間分類(CTC)を用いた非回帰型音声-テキスト翻訳モデルの構築の可能性について検討する。
CTCの翻訳における成功は単調な仮定のため直感に反するため,再順序化能力の解析を行う。
解析の結果、トランスフォーマーエンコーダは単語の順序を変えることができることがわかった。
論文 参考訳(メタデータ) (2021-05-11T07:48:45Z) - Character-Level Translation with Self-attention [9.864260997723974]
文字レベルのニューラルマシン翻訳における自己注意モデルの有効性について検討する。
本稿では,標準変圧器モデルとエンコーダブロックがコンボリューションを用いて周辺文字からの情報を結合する新しい変種を検証した。
我々の変圧器変種はキャラクタレベルで標準変圧器より一貫して優れ、より堅牢なキャラクタレベルのアライメントを学習しながらより高速に収束する。
論文 参考訳(メタデータ) (2020-04-30T14:05:26Z) - Self-Attention with Cross-Lingual Position Representation [112.05807284056337]
位置符号化(PE)は、自然言語処理タスクの単語順序情報を保存し、入力シーケンスの固定位置インデックスを生成する。
語順が異なるため、言語間の位置関係をモデル化することは、SANがこの問題に取り組むのに役立つ。
我々は、入力文のバイリンガル認識潜在構造をモデル化するために、言語間位置表現によるSANを拡大する。
論文 参考訳(メタデータ) (2020-04-28T05:23:43Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。