論文の概要: Consistency of Responses and Continuations Generated by Large Language Models on Social Media
- arxiv url: http://arxiv.org/abs/2501.08102v1
- Date: Tue, 14 Jan 2025 13:19:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:45.512689
- Title: Consistency of Responses and Continuations Generated by Large Language Models on Social Media
- Title(参考訳): ソーシャルメディアにおける大規模言語モデルによる応答・継続の一貫性
- Authors: Wenlu Fan, Yuqi Zhu, Chenyang Wang, Bin Wang, Wentao Xu,
- Abstract要約: 大規模言語モデル(LLM)は、テキスト生成において顕著な能力を示すが、ソーシャルメディアの文脈における感情的一貫性とセマンティック・コヒーレンス(セマンティック・コヒーレンス)は十分に理解されていない。
本研究では,2つのオープンソースモデル,Gemma と Llama を用いて,LLM が情緒的内容をどのように処理し,セマンティックな関係を維持するかを検討する。
- 参考スコア(独自算出の注目度): 9.809922019554461
- License:
- Abstract: Large Language Models (LLMs) demonstrate remarkable capabilities in text generation, yet their emotional consistency and semantic coherence in social media contexts remain insufficiently understood. This study investigates how LLMs handle emotional content and maintain semantic relationships through continuation and response tasks using two open-source models: Gemma and Llama. By analyzing climate change discussions from Twitter and Reddit, we examine emotional transitions, intensity patterns, and semantic similarity between human-authored and LLM-generated content. Our findings reveal that while both models maintain high semantic coherence, they exhibit distinct emotional patterns: Gemma shows a tendency toward negative emotion amplification, particularly anger, while maintaining certain positive emotions like optimism. Llama demonstrates superior emotional preservation across a broader spectrum of affects. Both models systematically generate responses with attenuated emotional intensity compared to human-authored content and show a bias toward positive emotions in response tasks. Additionally, both models maintain strong semantic similarity with original texts, though performance varies between continuation and response tasks. These findings provide insights into LLMs' emotional and semantic processing capabilities, with implications for their deployment in social media contexts and human-AI interaction design.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト生成において顕著な能力を示すが、ソーシャルメディアの文脈における感情的一貫性とセマンティック・コヒーレンス(セマンティック・コヒーレンス)は十分に理解されていない。
本研究では,2つのオープンソースモデル,Gemma と Llama を用いて,LLM が情緒的内容をどのように処理し,セマンティックな関係を維持するかを検討する。
気候変動に関する議論をTwitterやRedditから分析することにより、人間とLLMが生成したコンテンツ間の感情的遷移、強度パターン、意味的類似性について検討する。
その結果,両モデルとも高いセマンティック・コヒーレンスを維持しつつ,異なる感情パターンを呈することが明らかとなった。
ラマは感情の幅広い範囲にわたって優れた感情保存を示す。
どちらのモデルも、人間が作成したコンテンツと比較して、感情の強さを弱めた反応を体系的に生成し、応答タスクにおける肯定的な感情に対するバイアスを示す。
さらに、両方のモデルはオリジナルのテキストと強いセマンティックな類似性を維持している。
これらの知見は、LLMの感情的および意味的処理能力に関する洞察を与え、ソーシャルメディアのコンテキストへの展開や人間とAIのインタラクション設計に影響を及ぼす。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Recognizing Emotion Regulation Strategies from Human Behavior with Large Language Models [44.015651538470856]
人間の感情は直接表現されないことが多いが、内部のプロセスや社会的表示規則に従って制御される。
ユーザ間のシナリオで異なる感情制御戦略を自動的に分類する方法は存在しない。
我々は最近導入されたtextscDeepコーパスを利用して、感情の恥の社会的表示をモデル化する。
微調整されたLlama2-7Bモデルは、利用した感情制御戦略を高精度に分類することができる。
論文 参考訳(メタデータ) (2024-08-08T12:47:10Z) - Exploiting Emotion-Semantic Correlations for Empathetic Response
Generation [18.284296904390143]
共感応答生成は、対話言語から話者の感情的感情を理解することによって共感応答を生成することを目的としている。
近年の手法では、コミュニケーション者の言語における感情的な言葉を捉え、それらを静的なベクトルとして構築し、ニュアンス化された感情を知覚する。
本研究では,感情・感情相関モデル(ESCM)を提案する。
論文 参考訳(メタデータ) (2024-02-27T11:50:05Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - CDL: Curriculum Dual Learning for Emotion-Controllable Response
Generation [22.456627534121488]
カリキュラムデュアルラーニング(CDL)という新しいフレームワークを提案する。
CDLは、感情制御可能な応答生成を2つのタスクに拡張し、代わりに感情応答と感情クエリを生成する。
CDLは、コヒーレンス、多様性、および感情要因との関係において、ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2020-05-01T12:16:44Z) - Detecting Emotion Primitives from Speech and their use in discerning
Categorical Emotions [16.886826928295203]
感情は人間同士のコミュニケーションにおいて重要な役割を担い、幸福やフラストレーション、誠実さといった感情を伝えることができる。
この研究は、感情プリミティブが、幸福、嫌悪、軽蔑、怒り、驚きといったカテゴリー的感情を中性的なスピーチから検出する方法について研究した。
以上の結果から, 覚醒と支配は, 感情のより優れた検出方法であった。
論文 参考訳(メタデータ) (2020-01-31T03:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。