論文の概要: Hope Speech detection in under-resourced Kannada language
- arxiv url: http://arxiv.org/abs/2108.04616v1
- Date: Tue, 10 Aug 2021 11:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 19:09:03.630303
- Title: Hope Speech detection in under-resourced Kannada language
- Title(参考訳): 資源の少ないkannada言語におけるホープ音声検出
- Authors: Adeep Hande, Ruba Priyadharshini, Anbukkarasi Sampath, Kingston Pal
Thamburaj, Prabakaran Chandran, Bharathi Raja Chakravarthi
- Abstract要約: そこで我々は,英語・カナダ・ホープ音声データセットKanHopeを提案する。
データセットは、6,176件のユーザー生成コメントからなる。
我々は、カンホープの英語翻訳を付加訓練に用い、希望音声検出を促進する二重チャネルモデルであるDC-BERT4HOPEを紹介する。
- 参考スコア(独自算出の注目度): 0.1759008116536278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous methods have been developed to monitor the spread of negativity in
modern years by eliminating vulgar, offensive, and fierce comments from social
media platforms. However, there are relatively lesser amounts of study that
converges on embracing positivity, reinforcing supportive and reassuring
content in online forums. Consequently, we propose creating an English-Kannada
Hope speech dataset, KanHope and comparing several experiments to benchmark the
dataset. The dataset consists of 6,176 user-generated comments in code mixed
Kannada scraped from YouTube and manually annotated as bearing hope speech or
Not-hope speech. In addition, we introduce DC-BERT4HOPE, a dual-channel model
that uses the English translation of KanHope for additional training to promote
hope speech detection. The approach achieves a weighted F1-score of 0.756,
bettering other models. Henceforth, KanHope aims to instigate research in
Kannada while broadly promoting researchers to take a pragmatic approach
towards online content that encourages, positive, and supportive.
- Abstract(参考訳): ソーシャルメディアプラットフォームから悪質、不快、激しいコメントを排除することで、近代における否定性の拡散を監視するために多くの方法が開発されている。
しかし、オンラインフォーラムでは、肯定性を受け入れ、支援的・安心的なコンテンツを補強する研究が比較的少ない。
そこで本研究では,英語-kannada hope音声データセットkanhopeの作成と,いくつかの実験の比較を行った。
このデータセットは、6,176件のユーザー生成コメントから成り、youtubeから抽出されたkannadaを、ホープスピーチまたはノンホップスピーチとして手作業でアノテートする。
さらに,2チャンネルモデルであるDC-BERT4HOPEを導入する。
このアプローチは重み付きF1スコアの0.756を達成し、他のモデルより優れている。
その後、KanHopeはカンナダの研究を奨励し、研究者にオンラインコンテンツに対する実践的なアプローチを奨励し、肯定的かつ支援的だ。
関連論文リスト
- Voices Unheard: NLP Resources and Models for Yorùbá Regional Dialects [72.18753241750964]
Yorub'aは、約4700万人の話者を持つアフリカの言語である。
アフリカ語のためのNLP技術開発への最近の取り組みは、彼らの標準方言に焦点を当てている。
我々は、このギャップを埋めるために、新しい高品質のパラレルテキストと音声コーパスを導入する。
論文 参考訳(メタデータ) (2024-06-27T22:38:04Z) - TransVIP: Speech to Speech Translation System with Voice and Isochrony Preservation [97.54885207518946]
カスケード方式で多様なデータセットを活用する新しいモデルフレームワークTransVIPを提案する。
本稿では、話者の音声特性と、翻訳過程における音源音声からの等時性を維持するために、2つの分離エンコーダを提案する。
フランス語と英語のペアに関する実験により、我々のモデルは、現在最先端の音声音声翻訳モデルよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-05-28T04:11:37Z) - Hate Speech and Offensive Content Detection in Indo-Aryan Languages: A
Battle of LSTM and Transformers [0.0]
我々はベンガル語、アサメセ語、ボド語、シンハラ語、グジャラート語の5つの異なる言語でヘイトスピーチの分類を比較した。
Bert Base Multilingual Casedは、ベンガル語で0.67027得点、アサメ語で0.70525得点を達成した。
シンハラではXLM-RはF1スコア0.83493で際立っているが、グジャラティではF1スコア0.76601で照らされたカスタムLSTMベースのモデルである。
論文 参考訳(メタデータ) (2023-12-09T20:24:00Z) - Beyond Negativity: Re-Analysis and Follow-Up Experiments on Hope Speech
Detection [0.0]
ホープスピーチは、サポート、安心、提案、インスピレーション、洞察を提供するコメント、投稿、その他のソーシャルメディアメッセージを指す。
本研究は,希望音声検出のための効率的かつ同等かつ優れた手法を見つけることを目的としている。
論文 参考訳(メタデータ) (2023-05-10T18:38:48Z) - Hope Speech Detection on Social Media Platforms [1.2561455657923906]
本稿では,文章をホープ音声,ノンホップ音声,ニュートラル文と識別するための機械学習アプローチについて論じる。
この研究で使用されたデータセットには、英語のYouTubeコメントが含まれている。
論文 参考訳(メタデータ) (2022-11-14T10:58:22Z) - Speech-to-Speech Translation For A Real-world Unwritten Language [62.414304258701804]
本研究では、ある言語から別の言語に音声を翻訳する音声音声翻訳(S2ST)について研究する。
我々は、トレーニングデータ収集、モデル選択、ベンチマークデータセットのリリースからエンドツーエンドのソリューションを提示します。
論文 参考訳(メタデータ) (2022-11-11T20:21:38Z) - PolyHope: Two-Level Hope Speech Detection from Tweets [68.8204255655161]
その重要性にもかかわらず、希望はソーシャルメディア分析タスクとして研究されることはめったにない。
本稿では、まず各ツイートを「ホップ」と「ノーホープ」に分類するホープ音声データセットを提案する。
2022年前半の英語のつぶやきは、このデータセットを構築するために集められた。
論文 参考訳(メタデータ) (2022-10-25T16:34:03Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Unsupervised Cross-lingual Representation Learning for Speech
Recognition [63.85924123692923]
XLSRは、複数の言語における音声の生波形から1つのモデルを事前学習することで、言語間音声表現を学習する。
我々は、マスク付き潜在音声表現よりも対照的なタスクを解くことで訓練されたwav2vec 2.0を構築した。
実験により、言語間事前学習はモノリンガル事前訓練よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2020-06-24T18:25:05Z) - Classification Benchmarks for Under-resourced Bengali Language based on
Multichannel Convolutional-LSTM Network [3.0168410626760034]
われわれはBengFastTextという2億5000万記事をベースに、これまでで最大のベンガル語埋め込みモデルを構築している。
単語の埋め込みを多チャンネル畳み込み-LSTMネットワークに組み込んで、さまざまなタイプのヘイトスピーチ、文書分類、感情分析を予測する。
論文 参考訳(メタデータ) (2020-04-11T22:17:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。