論文の概要: Deep Learning based, end-to-end metaphor detection in Greek language
with Recurrent and Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2007.11949v1
- Date: Thu, 23 Jul 2020 12:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:31:22.778529
- Title: Deep Learning based, end-to-end metaphor detection in Greek language
with Recurrent and Convolutional Neural Networks
- Title(参考訳): Recurrent and Convolutional Neural Networksを用いたギリシャ語のディープラーニングに基づくエンドツーエンドメタファ検出
- Authors: Konstantinos Perifanos, Eirini Florou, Dionysis Goutsos
- Abstract要約: 本稿では,ギリシャ語におけるメタファ検出のための,エンドツーエンドのDeep Learningベースモデルを多数提示し,ベンチマークする。
畳み込みニューラルネットワークとリカレントニューラルネットワークと表現学習を組み合わせることで,ギリシャ語のメタファ検出問題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents and benchmarks a number of end-to-end Deep Learning based
models for metaphor detection in Greek. We combine Convolutional Neural
Networks and Recurrent Neural Networks with representation learning to bear on
the metaphor detection problem for the Greek language. The models presented
achieve exceptional accuracy scores, significantly improving the previous state
of the art results, which had already achieved accuracy 0.82. Furthermore, no
special preprocessing, feature engineering or linguistic knowledge is used in
this work. The methods presented achieve accuracy of 0.92 and F-score 0.92 with
Convolutional Neural Networks (CNNs) and bidirectional Long Short Term Memory
networks (LSTMs). Comparable results of 0.91 accuracy and 0.91 F-score are also
achieved with bidirectional Gated Recurrent Units (GRUs) and Convolutional
Recurrent Neural Nets (CRNNs). The models are trained and evaluated only on the
basis of the training tuples, the sentences and their labels. The outcome is a
state of the art collection of metaphor detection models, trained on limited
labelled resources, which can be extended to other languages and similar tasks.
- Abstract(参考訳): 本稿では,ギリシャ語におけるメタファ検出のための,エンドツーエンドのDeep Learningベースモデルを多数提示し,ベンチマークする。
畳み込みニューラルネットワークと繰り返しニューラルネットワークと表現学習を組み合わせることで,ギリシャ語のメタファ検出問題に耐えられる。
提示されたモデルは極めて精度の高いスコアを達成し、既に0.12の精度を達成していた以前の結果を大幅に改善した。
また,本研究では,特別な前処理や特徴工学,言語知識は使用されていない。
提案手法は、畳み込みニューラルネットワーク(CNN)と双方向長短記憶ネットワーク(LSTM)を用いて、0.92とFスコア0.92の精度を実現する。
比較可能な0.91の精度と0.91のFスコアは、双方向 Gated Recurrent Units (GRU) と Convolutional Recurrent Neural Nets (CRNN) で達成される。
モデルは、トレーニングタプル、文、ラベルに基づいてのみ訓練され、評価される。
その結果は、限られたラベル付きリソースに基づいて訓練されたメタファ検出モデルのアートコレクションであり、他の言語や同様のタスクに拡張することができる。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Multi-label Text Classification using GloVe and Neural Network Models [0.27195102129094995]
既存のソリューションには、予測のための従来の機械学習とディープニューラルネットワークが含まれる。
本稿では,GloVe モデルと CNN-BiLSTM ネットワークに基づくback-of-words モデル手法を提案する。
テストセットの精度は87.26%、F1スコアは0.8737であり、有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T01:30:26Z) - Convolutional Neural Networks for Sentiment Analysis on Weibo Data: A
Natural Language Processing Approach [0.228438857884398]
本研究では,Weiboの119,988ツイートのデータセット上で,畳み込みニューラルネットワーク(CNN)を用いた感情分析の複雑な課題に対処する。
CNNに基づくモデルを用いて,特徴抽出に単語埋め込みを活用し,感情分類を行う訓練を行った。
このモデルは、テストセットで平均約0.73のマクロ平均F1スコアを達成し、正、中、負の感情でバランスの取れた性能を示した。
論文 参考訳(メタデータ) (2023-07-13T03:02:56Z) - NODDLE: Node2vec based deep learning model for link prediction [0.0]
我々はNODDLE(NOde2vec anD Deep Learning mEthodの統合)を提案する。
実験結果から, この手法は, 従来のソーシャル・ネットワーク・データセットの手法よりも優れた結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-25T18:43:52Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - A Novel Deep Learning Method for Textual Sentiment Analysis [3.0711362702464675]
本稿では,階層的注意層を統合した畳み込みニューラルネットワークを提案する。
提案モデルでは,分類精度が高く,情報的単語を抽出できる。
インクリメンタル転送学習を適用すると、分類性能が大幅に向上します。
論文 参考訳(メタデータ) (2021-02-23T12:11:36Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Question Type Classification Methods Comparison [0.0]
本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。
すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。
最良の精度は5つの畳み込み層と、並列に積み重ねられたさまざまなカーネルサイズを持つCNNモデルを使用して達成され、その後に1つの完全に接続された層が続く。
論文 参考訳(メタデータ) (2020-01-03T00:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。