論文の概要: KuBERT: Central Kurdish BERT Model and Its Application for Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2509.16804v1
- Date: Sat, 20 Sep 2025 20:44:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.981269
- Title: KuBERT: Central Kurdish BERT Model and Its Application for Sentiment Analysis
- Title(参考訳): KuBERT:中央クルド系BERTモデルと感性解析への応用
- Authors: Kozhin muhealddin Awlla, Hadi Veisi, Abdulhady Abas Abdullah,
- Abstract要約: 本稿では,変換器からの双方向表現(BERT)を自然言語処理技術に統合することにより,中央クルド語に対する感情分析の研究を強化する。
- 参考スコア(独自算出の注目度): 0.979204203262436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper enhances the study of sentiment analysis for the Central Kurdish language by integrating the Bidirectional Encoder Representations from Transformers (BERT) into Natural Language Processing techniques. Kurdish is a low-resourced language, having a high level of linguistic diversity with minimal computational resources, making sentiment analysis somewhat challenging. Earlier, this was done using a traditional word embedding model, such as Word2Vec, but with the emergence of new language models, specifically BERT, there is hope for improvements. The better word embedding capabilities of BERT lend to this study, aiding in the capturing of the nuanced semantic pool and the contextual intricacies of the language under study, the Kurdish language, thus setting a new benchmark for sentiment analysis in low-resource languages.
- Abstract(参考訳): 本稿では,変換器からの双方向エンコーダ表現(BERT)を自然言語処理技術に統合することにより,中央クルド語に対する感情分析の研究を強化する。
クルド語は低リソース言語であり、最小限の計算資源を持つ高いレベルの言語多様性を持ち、感情分析をやや困難にしている。
以前、これはWord2Vecのような伝統的な単語埋め込みモデルを使用して行われたが、新しい言語モデル、特にBERTの出現により、改善への期待が高まった。
BERTのより良い単語埋め込み能力は、この研究に寄与し、ナンスドセマンティックプールの取得と、研究中の言語であるクルド語(英語版)の文脈的複雑さを補い、低リソース言語における感情分析のための新しいベンチマークを設定できる。
関連論文リスト
- Idiom Detection in Sorani Kurdish Texts [1.174020933567308]
本研究は,Sorani Kurdishにおける深層学習技術を用いたテキスト分類タスクとしてアプローチすることで,検出に対処する。
我々は、KuBERTベースのトランスフォーマーシーケンス分類、RCNN(Recurrent Convolutional Neural Network)、注意機構を備えたBiLSTMモデルという3つのディープラーニングモデルを開発し、評価した。
評価の結果,変圧器モデルである細調整BERTが他のモデルより一貫して優れており,精度は99%近くであった。
論文 参考訳(メタデータ) (2025-01-24T14:31:30Z) - MoSECroT: Model Stitching with Static Word Embeddings for Crosslingual Zero-shot Transfer [50.40191599304911]
クロスリンガルゼロショット転送のための静的単語埋め込みを用いたMoSECroTモデルスティッチについて紹介する。
本稿では,ソースコードPLMの埋め込みと対象言語の静的単語埋め込みのための共通空間を構築するために,相対表現を利用した最初のフレームワークを提案する。
提案するフレームワークは,MoSECroTに対処する際,弱いベースラインと競合するが,強いベースラインに比べて競合する結果が得られないことを示す。
論文 参考訳(メタデータ) (2024-01-09T21:09:07Z) - NusaWrites: Constructing High-Quality Corpora for Underrepresented and
Extremely Low-Resource Languages [54.808217147579036]
インドネシアの地方言語について事例研究を行う。
データセット構築におけるオンラインスクラップ,人文翻訳,および母語話者による段落作成の有効性を比較した。
本研究は,母語話者による段落作成によって生成されたデータセットが,語彙的多様性と文化的内容の点で優れた品質を示すことを示す。
論文 参考訳(メタデータ) (2023-09-19T14:42:33Z) - Hunspell for Sorani Kurdish Spell Checking and Morphological Analysis [0.0]
本稿では,形態素タグを付した辞書の注釈,およびSorani Kurdishの形態規則を抽出して,Hunspellを用いた形態素解析器,ステマー,スペルチェックシステムを構築した。
この実装は、研究者によるさらなる開発に使用することができ、また、公開ライセンスの下でテキストエディタに統合することもできる。
論文 参考訳(メタデータ) (2021-09-14T00:24:20Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - Towards Finite-State Morphology of Kurdish [0.76146285961466]
クルド語(ソルニ方言)の形態は、計算学的観点から記述される。
単語の生成と解析のために有限状態変換器に変換される形態素規則を抽出する。
論文 参考訳(メタデータ) (2020-05-21T13:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。