論文の概要: Evaluating Human-LLM Representation Alignment: A Case Study on Affective Sentence Generation for Augmentative and Alternative Communication
- arxiv url: http://arxiv.org/abs/2503.11881v3
- Date: Sun, 09 Nov 2025 02:13:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 19:11:14.12464
- Title: Evaluating Human-LLM Representation Alignment: A Case Study on Affective Sentence Generation for Augmentative and Alternative Communication
- Title(参考訳): 人間-LLM表現アライメントの評価:拡張的・代替的コミュニケーションのための感情文生成の一事例
- Authors: Shadab Choudhury, Asha Kumar, Lara J. Martin,
- Abstract要約: 言語モデルにおける概念の使用と人々の期待の間にギャップが生じます。
本稿では,表現アライメントの評価課題を紹介する。
感情表現は、単語、語彙と形の両方で表現されるValence-Arousal-Dominance(VAD)次元、絵文字の4つを選択する。
- 参考スコア(独自算出の注目度): 2.3320050024519596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaps arise between a language model's use of concepts and people's expectations. This gap is critical when LLMs generate text to help people communicate via Augmentative and Alternative Communication (AAC) tools. In this work, we introduce the evaluation task of Representation Alignment for measuring this gap via human judgment. In our study, we expand keywords and emotion representations into full sentences. We select four emotion representations: Words, Valence-Arousal-Dominance (VAD) dimensions expressed in both Lexical and Numeric forms, and Emojis. In addition to Representation Alignment, we also measure people's judgments of the accuracy and realism of the generated sentences. While representations like VAD break emotions into easy-to-compute components, our findings show that people agree more with how LLMs generate when conditioned on English words (e.g., "angry") rather than VAD scales. This difference is especially visible when comparing Numeric VAD to words. Furthermore, we found that the perception of how much a generated sentence conveys an emotion is dependent on both the representation type and which emotion it is.
- Abstract(参考訳): 言語モデルにおける概念の使用と人々の期待の間にギャップが生じます。
LLMがテキストを生成して、Augmentative and Alternative Communication (AAC)ツールを介してコミュニケーションするのを助ける場合、このギャップは重要である。
本研究では,このギャップを人間の判断によって測定するための表現アライメントの評価タスクを紹介する。
本研究では,キーワードと感情表現を全文に拡張する。
感情表現は、単語、語彙と数字の両方で表現されるValence-Arousal-Dominance(VAD)次元、絵文字の4つを選択する。
また、表現アライメントに加えて、生成した文の正確性や現実性に関する人々の判断も測定する。
VADのような表現は感情を簡単に計算できる要素に分解するが、我々の研究結果は、VADスケールではなく英語(例: "angry")で条件付けされた場合、LLMがどのように生成されるかに人々が同意していることを示している。
この違いは特に、Numeric VADを単語と比較する場合に顕著である。
さらに、生成した文がどれだけ感情を伝えるかの知覚は、表現タイプとその感情の両方に依存することがわかった。
関連論文リスト
- VAEmo: Efficient Representation Learning for Visual-Audio Emotion with Knowledge Injection [50.57849622045192]
本稿では,外部知識注入を用いた感情中心型VA表現学習のための効率的なフレームワークであるVAEmoを提案する。
VAEmoは、コンパクトな設計で最先端のパフォーマンスを実現し、統合されたクロスモーダルエンコーディングと感情認識のセマンティックガイダンスの利点を強調している。
論文 参考訳(メタデータ) (2025-05-05T03:00:51Z) - EmoVoice: LLM-based Emotional Text-To-Speech Model with Freestyle Text Prompting [48.56693150755667]
EmoVoiceは、大きな言語モデル(LLM)を利用して、きめ細かい自然言語の感情制御を可能にする、感情制御可能な新しいTSモデルである。
EmoVoice-DBは、表現力のある音声と自然言語記述によるきめ細かい感情ラベルを特徴とする、高品質な40時間感情データセットである。
論文 参考訳(メタデータ) (2025-04-17T11:50:04Z) - Irony in Emojis: A Comparative Study of Human and LLM Interpretation [53.66354612549173]
本研究は,GPT-4oが絵文字の皮肉を解釈する能力について検討した。
GPT-4oは、ソーシャルメディア上での皮肉表現に使用される特定の絵文字の可能性を評価することによって、機械と人間の理解のギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2025-01-20T03:02:00Z) - Iconicity in Large Language Models [0.0]
大規模言語モデル(LLM)は、意味と音の両方へのアクセスのみを仲介する。
本研究は,GPT-4が人工言語で高度に象徴的な擬似語を生成することによって,この仮説に対処する。
その結果、人間が生成した象徴言語における擬似単語の意味を、遠い自然言語の単語よりも正確に推測できることが判明した。
論文 参考訳(メタデータ) (2025-01-10T01:00:05Z) - A Unified and Interpretable Emotion Representation and Expression Generation [38.321248253111776]
我々はC2A2と呼ばれる解釈可能で統一された感情モデルを提案する。
生成した画像は豊かであり、微妙な表現を捉えていることを示す。
論文 参考訳(メタデータ) (2024-04-01T17:03:29Z) - Human vs. LMMs: Exploring the Discrepancy in Emoji Interpretation and Usage in Digital Communication [68.40865217231695]
本研究は,ヒト型絵文字の複製におけるGPT-4Vの挙動について検討した。
この結果は、人間の解釈の主観的な性質から、人間とGPT-4Vの行動に明確な相違があることを示唆している。
論文 参考訳(メタデータ) (2024-01-16T08:56:52Z) - Contextual Emotion Estimation from Image Captions [0.6749750044497732]
大規模言語モデルが文脈的感情推定タスクをサポートできるかを,まずイメージをキャプションし,LLMを用いて推論する。
EMOTICデータセットから331画像のサブセットのキャプションと感情アノテーションを生成する。
GPT-3.5(特にtext-davinci-003モデル)は、人間のアノテーションと一致した驚くほど合理的な感情予測を提供する。
論文 参考訳(メタデータ) (2023-09-22T18:44:34Z) - Emotion and Sentiment Guided Paraphrasing [3.5027291542274366]
感情の勾配に沿ってきめ細かな感情的言い回しを新たに導入する。
入力テキストとターゲットテキストを微粒な感情ラベルで拡張することにより、広く使われているパラフレーズデータセットを再構築する。
本研究では,条件付きテキスト生成のための事前学習言語モデルを活用することで,感情と感情を導出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T20:59:40Z) - Leveraging Label Correlations in a Multi-label Setting: A Case Study in
Emotion [0.0]
マルチラベル感情認識モデルにおけるラベル相関を利用して感情検出を改善する。
単言語BERTモデルを用いたSemEval 2018 Task 1 E-cにおいて、スペイン語、英語、アラビア語で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-10-28T02:27:18Z) - EmoBank: Studying the Impact of Annotation Perspective and
Representation Format on Dimensional Emotion Analysis [11.896225475351317]
EmoBankは、複数のジャンルのバランスをとる10万の英語文のコーパスだ。
EmoBankは、2つのパースペクティブと2つの表現的デザインで優れている。
我々は,IAAと評価強度の観点から,読者の視点の優位性を示す証拠を見出した。
論文 参考訳(メタデータ) (2022-05-04T11:03:21Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - SpanEmo: Casting Multi-label Emotion Classification as Span-prediction [15.41237087996244]
マルチラベル感情分類をスパンプレディションとした新しいモデル「SpanEmo」を提案する。
入力文中の複数の共存感情をモデル化することに焦点を当てた損失関数を導入する。
SemEval2018マルチラベル感情データを3つの言語セットで実験した結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-01-25T12:11:04Z) - VAW-GAN for Disentanglement and Recomposition of Emotional Elements in
Speech [91.92456020841438]
変分自己符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)による音声の感情要素のアンタングル化と再分解について検討する。
本稿では,2つのVAW-GANパイプライン,1つはスペクトル変換,もう1つは韻律変換を含む話者依存型ECVフレームワークを提案する。
提案手法の有効性を客観評価と主観評価の両方で検証した。
論文 参考訳(メタデータ) (2020-11-03T08:49:33Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。