論文の概要: GPT's Devastated and LLaMA's Content: Emotion Representation Alignment in LLMs for Keyword-based Generation
- arxiv url: http://arxiv.org/abs/2503.11881v1
- Date: Fri, 14 Mar 2025 21:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 16:00:14.012595
- Title: GPT's Devastated and LLaMA's Content: Emotion Representation Alignment in LLMs for Keyword-based Generation
- Title(参考訳): GPTの破壊とLLaMAの内容:キーワード生成のためのLLMにおける感情表現アライメント
- Authors: Shadab Choudhury, Asha Kumar, Lara J. Martin,
- Abstract要約: 大きな言語モデル(LLM)を用いた制御されたテキスト生成では、言語モデルの解釈と人間の期待との間にギャップが生じる。
我々は4つの感情表現を選択した:単語、語彙と形の両方で表現されるValence-Arousal-Dominance(VAD)次元、および絵文字。
人間の評価では,各表現に対するHuman-LLMアライメントと,生成された文の精度とリアリズムを検討した。
- 参考スコア(独自算出の注目度): 5.504853768307439
- License:
- Abstract: In controlled text generation using large language models (LLMs), gaps arise between the language model's interpretation and human expectations. We look at the problem of controlling emotions in keyword-based sentence generation for both GPT-4 and LLaMA-3. We selected four emotion representations: Words, Valence-Arousal-Dominance (VAD) dimensions expressed in both Lexical and Numeric forms, and Emojis. Our human evaluation looked at the Human-LLM alignment for each representation, as well as the accuracy and realism of the generated sentences. While representations like VAD break emotions into easy-to-compute components, our findings show that people agree more with how LLMs generate when conditioned on English words (e.g., "angry") rather than VAD scales. This difference is especially visible when comparing Numeric VAD to words. However, we found that converting the originally-numeric VAD scales to Lexical scales (e.g., +4.0 becomes "High") dramatically improved agreement. Furthermore, the perception of how much a generated sentence conveys an emotion is highly dependent on the LLM, representation type, and which emotion it is.
- Abstract(参考訳): 大きな言語モデル(LLM)を用いた制御されたテキスト生成では、言語モデルの解釈と人間の期待との間にギャップが生じる。
GPT-4 と LLaMA-3 のキーワードベース文生成における感情制御の問題について検討する。
我々は4つの感情表現を選択した:単語、語彙と数字の両方で表現されるValence-Arousal-Dominance(VAD)次元、および絵文字。
人間の評価では,各表現に対するHuman-LLMアライメントと,生成された文の精度とリアリズムを検討した。
VADのような表現は感情を簡単に計算できる要素に分解するが、我々の研究結果は、VADスケールではなく英語(例: "angry")で条件付けされた場合、LLMがどのように生成されるかに人々が同意していることを示している。
この違いは特に、Numeric VADを単語と比較する場合に顕著である。
しかし、元の数値スケールをレキシカルスケールに変換する(例えば、+4.0は「高」になる)ことで、合意は劇的に改善された。
さらに、生成した文がどれだけ感情を伝えるかの知覚は、LLM、表現型、その感情に大きく依存する。
関連論文リスト
- Irony in Emojis: A Comparative Study of Human and LLM Interpretation [53.66354612549173]
本研究は,GPT-4oが絵文字の皮肉を解釈する能力について検討した。
GPT-4oは、ソーシャルメディア上での皮肉表現に使用される特定の絵文字の可能性を評価することによって、機械と人間の理解のギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2025-01-20T03:02:00Z) - Iconicity in Large Language Models [0.0]
大規模言語モデル(LLM)は、意味と音の両方へのアクセスのみを仲介する。
本研究は,GPT-4が人工言語で高度に象徴的な擬似語を生成することによって,この仮説に対処する。
その結果、人間が生成した象徴言語における擬似単語の意味を、遠い自然言語の単語よりも正確に推測できることが判明した。
論文 参考訳(メタデータ) (2025-01-10T01:00:05Z) - Enriching Multimodal Sentiment Analysis through Textual Emotional Descriptions of Visual-Audio Content [56.62027582702816]
マルチモーダル・センティメント・アナリティクスは、テキスト、音声、視覚データを融合することで人間の感情を解き放つことを目指している。
しかし、音声やビデオの表現の中で微妙な感情的なニュアンスを認識することは、恐ろしい挑戦だ。
テキストの感情記述に基づくプログレッシブ・フュージョン・フレームワークであるDEVAを紹介する。
論文 参考訳(メタデータ) (2024-12-12T11:30:41Z) - A Unified and Interpretable Emotion Representation and Expression Generation [38.321248253111776]
我々はC2A2と呼ばれる解釈可能で統一された感情モデルを提案する。
生成した画像は豊かであり、微妙な表現を捉えていることを示す。
論文 参考訳(メタデータ) (2024-04-01T17:03:29Z) - Human vs. LMMs: Exploring the Discrepancy in Emoji Interpretation and Usage in Digital Communication [68.40865217231695]
本研究は,ヒト型絵文字の複製におけるGPT-4Vの挙動について検討した。
この結果は、人間の解釈の主観的な性質から、人間とGPT-4Vの行動に明確な相違があることを示唆している。
論文 参考訳(メタデータ) (2024-01-16T08:56:52Z) - Contextual Emotion Estimation from Image Captions [0.6749750044497732]
大規模言語モデルが文脈的感情推定タスクをサポートできるかを,まずイメージをキャプションし,LLMを用いて推論する。
EMOTICデータセットから331画像のサブセットのキャプションと感情アノテーションを生成する。
GPT-3.5(特にtext-davinci-003モデル)は、人間のアノテーションと一致した驚くほど合理的な感情予測を提供する。
論文 参考訳(メタデータ) (2023-09-22T18:44:34Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - SpanEmo: Casting Multi-label Emotion Classification as Span-prediction [15.41237087996244]
マルチラベル感情分類をスパンプレディションとした新しいモデル「SpanEmo」を提案する。
入力文中の複数の共存感情をモデル化することに焦点を当てた損失関数を導入する。
SemEval2018マルチラベル感情データを3つの言語セットで実験した結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-01-25T12:11:04Z) - VAW-GAN for Disentanglement and Recomposition of Emotional Elements in
Speech [91.92456020841438]
変分自己符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)による音声の感情要素のアンタングル化と再分解について検討する。
本稿では,2つのVAW-GANパイプライン,1つはスペクトル変換,もう1つは韻律変換を含む話者依存型ECVフレームワークを提案する。
提案手法の有効性を客観評価と主観評価の両方で検証した。
論文 参考訳(メタデータ) (2020-11-03T08:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。