論文の概要: AlbMoRe: A Corpus of Movie Reviews for Sentiment Analysis in Albanian
- arxiv url: http://arxiv.org/abs/2306.08526v1
- Date: Wed, 14 Jun 2023 14:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 18:48:24.927521
- Title: AlbMoRe: A Corpus of Movie Reviews for Sentiment Analysis in Albanian
- Title(参考訳): albmore:アルバニアの感情分析のための映画レビューコーパス
- Authors: Erion \c{C}ano
- Abstract要約: AlbMoRe(アルブモレ)は、アルバニアの映画レビュー800のコーパス。
各テキストは肯定的あるいは否定的にラベル付けされ、感情分析研究に使用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lack of available resources such as text corpora for low-resource languages
seriously hinders research on natural language processing and computational
linguistics. This paper presents AlbMoRe, a corpus of 800 sentiment annotated
movie reviews in Albanian. Each text is labeled as positive or negative and can
be used for sentiment analysis research. Preliminary results based on
traditional machine learning classifiers trained with the AlbMoRe samples are
also reported. They can serve as comparison baselines for future research
experiments.
- Abstract(参考訳): 低リソース言語のためのテキストコーパスのような利用可能なリソースの不足は、自然言語処理や計算言語学の研究を著しく妨げている。
本稿では,アルバニア語映画評論800のコーパスであるAlbMoReを紹介する。
各テキストはポジティブまたはネガティブとラベル付けされ、感情分析研究に使用することができる。
AlbMoReサンプルを用いて学習した従来の機械学習分類器に基づく予備結果も報告する。
これらは将来の研究実験の比較基準となる。
関連論文リスト
- Strategies for Arabic Readability Modeling [9.976720880041688]
自動可読性評価は、教育、コンテンツ分析、アクセシビリティのためのNLPアプリケーションの構築に関係している。
本稿では,アラビア可読性評価に関する実験結果について,多種多様なアプローチを用いて述べる。
論文 参考訳(メタデータ) (2024-07-03T11:54:11Z) - AlbNews: A Corpus of Headlines for Topic Modeling in Albanian [0.0]
AlbNews(アルブニューズ)は、アルバニア語で600のニュースヘッドラインと2600の未ラベルのニュースのコレクションである。
このデータはトピックモデリング研究の実施に自由に利用できる。
論文 参考訳(メタデータ) (2024-02-06T14:24:28Z) - AlbNER: A Corpus for Named Entity Recognition in Albanian [0.0]
本稿では、アルバニア語ウィキペディアの記事から収集した900文のコーパスであるAlbNERについて述べる。
BERTとRoBERTaによる予備的な結果から、AlbNERデータを用いて微調整およびテストした結果、モデルサイズがNERのパフォーマンスにわずかに影響を与えているのに対して、言語転送は大きな影響を与えていることがわかる。
論文 参考訳(メタデータ) (2023-09-15T20:03:19Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - Offensive Language Detection in Under-resourced Algerian Dialectal
Arabic Language [0.0]
我々は、未資源の言語の1つであるアルジェリア方言のアラビア語に焦点を当てている。
同じ言語での作業が不足しているため、我々は8.7k以上のテキストを通常の、虐待的、攻撃的に手動で注釈付けした新しいコーパスを構築した。
論文 参考訳(メタデータ) (2022-03-18T15:42:21Z) - Intent Classification Using Pre-Trained Embeddings For Low Resource
Languages [67.40810139354028]
言語固有の音声認識に依存しない音声理解システムを構築することは、言語処理において重要でない問題である。
本稿では,事前学習した音響モデルを用いて,低資源シナリオにおける音声言語理解を実現するための比較研究を提案する。
私たちは、ハイ、ミディアム、低リソースシナリオをシミュレートするために、それぞれ異なるデータサイズを持つ英語、Sinhala、Tamilの3つの異なる言語で実験を行います。
論文 参考訳(メタデータ) (2021-10-18T13:06:59Z) - Survey of Low-Resource Machine Translation [65.52755521004794]
現在、世界中で約7000の言語が話されており、ほとんど全ての言語ペアは機械翻訳モデルのトレーニングのための重要なリソースを欠いている。
翻訳データが少ない場合に有用な翻訳モデルを作成するという課題に対処する研究への関心が高まっている。
論文 参考訳(メタデータ) (2021-09-01T16:57:58Z) - Bambara Language Dataset for Sentiment Analysis [0.0]
アフリカでは、様々な言語や方言が存在するが、それらはいまだに不足しており、分析研究や研究目的のために完全に活用されていない。
本稿では,感性分析専用のバンバラ方言データセットについて紹介する。
論文 参考訳(メタデータ) (2021-08-05T11:07:18Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。