論文の概要: An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages
- arxiv url: http://arxiv.org/abs/2102.10275v1
- Date: Sat, 20 Feb 2021 07:31:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 15:28:26.970423
- Title: An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages
- Title(参考訳): インド語の効率的なテキスト分類のための注意アンサンブルアプローチ
- Authors: Atharva Kulkarni, Amey Hengle, Rutuja Udyawar
- Abstract要約: 本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The recent surge of complex attention-based deep learning architectures has
led to extraordinary results in various downstream NLP tasks in the English
language. However, such research for resource-constrained and morphologically
rich Indian vernacular languages has been relatively limited. This paper
proffers team SPPU\_AKAH's solution for the TechDOfication 2020 subtask-1f:
which focuses on the coarse-grained technical domain identification of short
text documents in Marathi, a Devanagari script-based Indian language. Availing
the large dataset at hand, a hybrid CNN-BiLSTM attention ensemble model is
proposed that competently combines the intermediate sentence representations
generated by the convolutional neural network and the bidirectional long
short-term memory, leading to efficient text classification. Experimental
results show that the proposed model outperforms various baseline machine
learning and deep learning models in the given task, giving the best validation
accuracy of 89.57\% and f1-score of 0.8875. Furthermore, the solution resulted
in the best system submission for this subtask, giving a test accuracy of
64.26\% and f1-score of 0.6157, transcending the performances of other teams as
well as the baseline system given by the organizers of the shared task.
- Abstract(参考訳): 最近の複雑な注意に基づくディープラーニングアーキテクチャの台頭は、英語における様々な下流のNLPタスクで並外れた結果をもたらしました。
しかし、このような資源制約と形態学的に豊かなインド言語の研究は比較的限られたものとなっている。
本稿では,Devanagariスクリプトベースのインドの言語であるMarathiにおける短文文書の粗粒度の技術的ドメイン識別に焦点を当てた,TechDOfication 2020 subtask-1fに対するSPPU\_AKAHのソリューションを提供する。
大規模なデータセットを用いて、畳み込みニューラルネットワークによって生成された中間文表現と双方向の長期メモリを有能に組み合わせたハイブリッドCNN-BiLSTMアテンションアンサンブルモデルを提案し、効率的なテキスト分類を実現します。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57\%,f1スコア0.8875の検証精度が得られた。
さらに、このソリューションは、このサブタスクの最良のシステム提案となり、テスト精度が64.26\%、f1-scoreが0.0157となり、他のチームのパフォーマンスと共有タスクのオーガナイザによって与えられたベースラインシステムを超えた。
関連論文リスト
- What Differentiates Educational Literature? A Multimodal Fusion Approach of Transformers and Computational Linguistics [0.7342677574855649]
英語カリキュラムへの新しい文学の統合は、様々な教室のニーズに対して、読みやすさとテキストの適応を迅速に評価するスケーラブルなツールがしばしば欠如しているため、依然として課題である。
本研究は,変圧器を用いたテキスト分類と言語的特徴分析を組み合わせたマルチモーダル手法により,このギャップに対処することを提案する。
提案手法は、ステークホルダーが対象とするWebアプリケーションにカプセル化され、非技術ステークホルダーが、テキストの複雑さ、読みやすさ、カリキュラムのアライメント、学習年齢範囲に関するリアルタイムな洞察にアクセスできるようにする。
論文 参考訳(メタデータ) (2024-11-26T17:01:27Z) - A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Enhancing Pashto Text Classification using Language Processing
Techniques for Single And Multi-Label Analysis [0.0]
本研究では,Pashtoテキストの自動分類システムの構築を目的とする。
平均テスト精度は94%だった。
DistilBERTのような事前訓練された言語表現モデルの使用は、有望な結果を示した。
論文 参考訳(メタデータ) (2023-05-04T23:11:31Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Coarse and Fine-Grained Hostility Detection in Hindi Posts using Fine
Tuned Multilingual Embeddings [4.3012765978447565]
敵意検出タスクは、英語のようなリソースに富む言語でよく研究されているが、Hindidueのようなリソースに制約のある言語では探索されていない。
ヒンディー語投稿における敵意検出に有効なニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-01-13T11:00:31Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z) - Deep Learning for Hindi Text Classification: A Comparison [6.8629257716723]
デヴァナガリ文字で書かれた形態的に豊かで低資源のヒンディー語を分類する研究は、大きなラベル付きコーパスがないために限られている。
本研究では,CNN,LSTM,注意に基づくモデル評価のために,英文データセットの翻訳版を用いた。
また,本論文は,一般的なテキスト分類手法のチュートリアルとしても機能する。
論文 参考訳(メタデータ) (2020-01-19T09:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。