論文の概要: Human-LLM Collaborative Construction of a Cantonese Emotion Lexicon
- arxiv url: http://arxiv.org/abs/2410.11526v1
- Date: Tue, 15 Oct 2024 11:57:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:46.726737
- Title: Human-LLM Collaborative Construction of a Cantonese Emotion Lexicon
- Title(参考訳): カントン性情動レキシコンのヒト-LLM協調構築
- Authors: Yusong Zhang, Dong Dong, Chi-tim Hung, Leonard Heyerdahl, Tamara Giles-Vernick, Eng-kiong Yeoh,
- Abstract要約: 本研究では,低リソース言語であるCantoneseのための感情辞書を開発することを提案する。
LLM(Large Language Models)と人間のアノテータによって提供される感情ラベルを統合することで、既存の言語資源を活用している。
感情抽出における感情レキシコンの整合性は、3つの異なる感情テキストデータセットの修正と利用によって評価された。
- 参考スコア(独自算出の注目度): 1.3074442742310615
- License:
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities in language understanding and generation. Advanced utilization of the knowledge embedded in LLMs for automated annotation has consistently been explored. This study proposed to develop an emotion lexicon for Cantonese, a low-resource language, through collaborative efforts between LLM and human annotators. By integrating emotion labels provided by LLM and human annotators, the study leveraged existing linguistic resources including lexicons in other languages and local forums to construct a Cantonese emotion lexicon enriched with colloquial expressions. The consistency of the proposed emotion lexicon in emotion extraction was assessed through modification and utilization of three distinct emotion text datasets. This study not only validates the efficacy of the constructed lexicon but also emphasizes that collaborative annotation between human and artificial intelligence can significantly enhance the quality of emotion labels, highlighting the potential of such partnerships in facilitating natural language processing tasks for low-resource languages.
- Abstract(参考訳): 大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示した。
自動アノテーションのためのLLMに埋め込まれた知識の高度利用が一貫して検討されている。
本研究では,LLMとヒトアノテータの協調作業を通じて,低リソース言語であるCantoneseに対する感情レキシコンを開発することを提案する。
LLMとヒトのアノテータによって提供される感情ラベルを統合することで、他の言語や地域フォーラムの語彙を含む既存の言語資源を活用して、口語表現に富んだカントン感情辞書を構築した。
感情抽出における感情レキシコンの整合性は、3つの異なる感情テキストデータセットの修正と利用によって評価された。
本研究は、構築された語彙の有効性を検証するだけでなく、人間と人工知能の協調アノテーションは感情ラベルの品質を大幅に向上させ、低リソース言語における自然言語処理タスクの促進におけるそのようなパートナーシップの可能性を強調している。
関連論文リスト
- Investigating large language models for their competence in extracting grammatically sound sentences from transcribed noisy utterances [1.3597551064547497]
人間は、意味的に重要な内容と音声特有のノイズを区別する優れた認知能力を示す。
本研究では,大言語モデル (LLM) が類似語理解タスクを効果的に実行できるかを検討する。
論文 参考訳(メタデータ) (2024-10-07T14:55:20Z) - AER-LLM: Ambiguity-aware Emotion Recognition Leveraging Large Language Models [18.482881562645264]
この研究は、あいまいな感情を認識する上でのLarge Language Models(LLM)の可能性を探究する最初のものである。
我々はゼロショットと少数ショットのプロンプトを設計し、過去の対話を曖昧な感情認識のための文脈情報として組み込んだ。
論文 参考訳(メタデータ) (2024-09-26T23:25:21Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Sociolinguistically Informed Interpretability: A Case Study on Hinglish
Emotion Classification [8.010713141364752]
ヒングリッシュ感情分類データセットにおける3つのPLM間の感情予測に対する言語の影響について検討した。
モデルが言語選択と感情表現の関連を学習していることが分かりました。
事前トレーニングにコードミキシングされたデータが存在することで、タスク固有のデータが不足している場合の学習が増大する可能性がある。
論文 参考訳(メタデータ) (2024-02-05T16:05:32Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Multilingual Word Sense Disambiguation with Unified Sense Representation [55.3061179361177]
本稿では,知識と教師付き多言語単語センス曖昧化(MWSD)システムを提案する。
我々は複数の言語に統一されたセンス表現を構築し、リッチソース言語から貧しい言語へアノテーションを転送することでMWSDのアノテーション不足問題に対処する。
SemEval-13およびSemEval-15データセットの評価により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-14T01:24:03Z) - Exposing Cross-Lingual Lexical Knowledge from Multilingual Sentence
Encoders [85.80950708769923]
本稿では,多言語言語モデルを用いて,それらのパラメータに格納された言語間語彙の知識量を探索し,元の多言語LMと比較する。
また、この知識を付加的に微調整した多言語モデルにより公開する新しい手法も考案した。
標準ベンチマークの大幅な向上を報告します。
論文 参考訳(メタデータ) (2022-04-30T13:23:16Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Learning and Evaluating Emotion Lexicons for 91 Languages [10.06987680744477]
本稿では,任意の対象言語に対して,ほぼ任意に大きな感情辞書を作成する手法を提案する。
我々は8つの感情変数と100k以上の語彙エントリからなる表現に富んだ高被覆語彙を生成する。
我々の手法は、辞書作成に対する最先端のモノリンガルなアプローチと一致し、一部の言語や変数に対する人間の信頼性を超越した結果をもたらす。
論文 参考訳(メタデータ) (2020-05-12T10:32:03Z) - Cross Lingual Cross Corpus Speech Emotion Recognition [0.0]
本稿では,単一コーパスとクロスコーパス設定の両方において,4言語を対象とした音声感情認識の結果について述べる。
ジェンダー,自然性,覚醒を伴うマルチタスク学習(MTL)は,感情モデルの一般化能力を高めることが示されているため,本稿では,MTLフレームワークのもう一つの補助課題として言語IDを導入する。
論文 参考訳(メタデータ) (2020-03-18T00:23:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。