論文の概要: Can Large Language Models Generate Effective Datasets for Emotion Recognition in Conversations?
- arxiv url: http://arxiv.org/abs/2508.05474v1
- Date: Thu, 07 Aug 2025 15:13:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.920968
- Title: Can Large Language Models Generate Effective Datasets for Emotion Recognition in Conversations?
- Title(参考訳): 大言語モデルは会話における感情認識に有効なデータセットを生成することができるか?
- Authors: Burak Can Kaplan, Hugo Cesar De Castro Carneiro, Stefan Wermter,
- Abstract要約: 会話における感情認識(英: Emotion Recognition in conversation、ERC)は、対話における感情の変化を特定することに焦点を当てる。
既存のデータセットは、バイアスの強いソースとソフトラベル固有の主観性のために、多くの課題に直面している。
資源効率が高く汎用的なLCMを用いて,多様な特性を持つERCデータセットを合成する。
- 参考スコア(独自算出の注目度): 14.788624194380825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition in conversations (ERC) focuses on identifying emotion shifts within interactions, representing a significant step toward advancing machine intelligence. However, ERC data remains scarce, and existing datasets face numerous challenges due to their highly biased sources and the inherent subjectivity of soft labels. Even though Large Language Models (LLMs) have demonstrated their quality in many affective tasks, they are typically expensive to train, and their application to ERC tasks--particularly in data generation--remains limited. To address these challenges, we employ a small, resource-efficient, and general-purpose LLM to synthesize ERC datasets with diverse properties, supplementing the three most widely used ERC benchmarks. We generate six novel datasets, with two tailored to enhance each benchmark. We evaluate the utility of these datasets to (1) supplement existing datasets for ERC classification, and (2) analyze the effects of label imbalance in ERC. Our experimental results indicate that ERC classifier models trained on the generated datasets exhibit strong robustness and consistently achieve statistically significant performance improvements on existing ERC benchmarks.
- Abstract(参考訳): 会話における感情認識(ERC)は、インタラクション内の感情の変化を特定することに焦点を当てており、マシンインテリジェンスを前進させるための重要なステップである。
しかし、ERCのデータは乏しく、既存のデータセットは、非常に偏りのある情報源とソフトラベルの固有の主観性のために、多くの課題に直面している。
大規模言語モデル(LLM)は、多くの感情的なタスクでその品質を実証しているが、訓練には一般的にコストがかかり、特にデータ生成において、ERCタスクへの応用は制限されている。
これらの課題に対処するために、我々は、様々な特性を持つERCデータセットを合成するために、小さく、リソース効率が高く、汎用的なLCMを使用し、最も広く使用されている3つのERCベンチマークを補完する。
我々は6つの新しいデータセットを生成し、2つのベンチマークを強化するように調整した。
ERC分類のための既存のデータセットを補うために,これらのデータセットの有用性を評価し,(2)ERCにおけるラベルの不均衡の影響を分析する。
実験結果から,生成したデータセットでトレーニングしたERC分類器モデルは強い堅牢性を示し,既存のERCベンチマークで統計的に有意な性能向上が得られたことが示唆された。
関連論文リスト
- AdvKT: An Adversarial Multi-Step Training Framework for Knowledge Tracing [64.79967583649407]
知識追跡(KT)は、学生の知識状態を監視し、質問シーケンスに対する反応をシミュレートする。
既存のKTモデルは通常、単一ステップのトレーニングパラダイムに従っており、大きなエラーの蓄積につながる。
本稿では,多段階KTタスクに着目した新しい知識追跡のための多段階学習フレームワーク(AdvKT)を提案する。
論文 参考訳(メタデータ) (2025-04-07T03:31:57Z) - Evaluating Facial Expression Recognition Datasets for Deep Learning: A Benchmark Study with Novel Similarity Metrics [4.137346786534721]
本研究では,ディープラーニングモデルの学習に広く用いられている顔表情認識(FER)データセットの特徴と適合性について検討した。
子ども, 成人, 高齢者など特定の年齢層を対象として, 24 FER データセットを収集, 分析した。
最先端のニューラルネットワークを用いたベンチマーク実験では、大規模で自動収集されたデータセットがより一般化される傾向があることが明らかになった。
論文 参考訳(メタデータ) (2025-03-26T11:01:00Z) - Towards Robust Universal Information Extraction: Benchmark, Evaluation, and Solution [66.11004226578771]
既存の堅牢なベンチマークデータセットには2つの重要な制限がある。
単一の情報抽出(IE)タスクに対して、限られた範囲の摂動しか生成しない。
LLM(Large Language Models)の強力な生成機能を考慮すると、ruIE-Benchと呼ばれるRobust UIEのための新しいベンチマークデータセットを導入する。
データのうち、 textbf15% しかトレーニングしない場合、3つの IE タスクに対して、平均 textbf7.5% の相対的なパフォーマンス改善につながることを示す。
論文 参考訳(メタデータ) (2025-03-05T05:39:29Z) - Evaluating Language Models as Synthetic Data Generators [74.80905172696366]
AgoraBenchは、LMのデータ生成能力を評価するための標準化された設定とメトリクスを提供するベンチマークである。
6つのLMを使って126万のトレーニングインスタンスを合成し、99の学生モデルをトレーニングすることで、LMのデータ生成能力に関する重要な洞察を明らかにする。
論文 参考訳(メタデータ) (2024-12-04T19:20:32Z) - Breaking Resource Barriers in Speech Emotion Recognition via Data Distillation [64.36799373890916]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす。
モノのインターネットにおけるエッジデバイスの出現は、複雑なディープラーニングモデルを構築する上での課題を示している。
本研究では,IoTアプリケーションにおけるSERモデルの効率的な開発を容易にするためのデータ蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T13:10:46Z) - InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - A Comparative Study of Data Augmentation Techniques for Deep Learning
Based Emotion Recognition [11.928873764689458]
感情認識のための一般的なディープラーニングアプローチを包括的に評価する。
音声信号の長距離依存性が感情認識に重要であることを示す。
スピード/レート向上は、モデル間で最も堅牢なパフォーマンス向上を提供する。
論文 参考訳(メタデータ) (2022-11-09T17:27:03Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - Improving Low-resource Reading Comprehension via Cross-lingual
Transposition Rethinking [0.9236074230806579]
Extractive Reading (ERC)は、大規模で高品質なERCトレーニングデータの提供によって、大幅に進歩した。
このような急速な進歩と広範囲の応用にもかかわらず、英語のような高リソース言語以外の言語のデータセットは依然として不足している。
多言語環境において,既存の高品質抽出読解データセットをモデル化し,XLTT(Cross-Lingual Transposition ReThinking)モデルを提案する。
論文 参考訳(メタデータ) (2021-07-11T09:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。