論文の概要: Prompt Sentiment: The Catalyst for LLM Change
- arxiv url: http://arxiv.org/abs/2503.13510v1
- Date: Fri, 14 Mar 2025 06:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:18:05.772915
- Title: Prompt Sentiment: The Catalyst for LLM Change
- Title(参考訳): Prompt Sentiment: LLM変化のための触媒
- Authors: Vishal Gandhi, Sagar Gandhi,
- Abstract要約: 本研究では,感情変化が大規模言語モデル(LLM)に与える影響を系統的に検討する。
私たちの分析は、コンテンツ生成、会話型AI、法的および財務分析、ヘルスケアAI、クリエイティブライティング、および技術ドキュメントを含む、AI駆動の6つのアプリケーションにまたがる。
以上の結果から,肯定的な感情はモデル反応に大きく影響し,否定的な感情は事実の精度を低下させ,バイアスを増幅する一方,肯定的な感情は冗長性や感情の伝播を増大させる傾向が示唆された。
- 参考スコア(独自算出の注目度): 0.29998889086656577
- License:
- Abstract: The rise of large language models (LLMs) has revolutionized natural language processing (NLP), yet the influence of prompt sentiment, a latent affective characteristic of input text, remains underexplored. This study systematically examines how sentiment variations in prompts affect LLM-generated outputs in terms of coherence, factuality, and bias. Leveraging both lexicon-based and transformer-based sentiment analysis methods, we categorize prompts and evaluate responses from five leading LLMs: Claude, DeepSeek, GPT-4, Gemini, and LLaMA. Our analysis spans six AI-driven applications, including content generation, conversational AI, legal and financial analysis, healthcare AI, creative writing, and technical documentation. By transforming prompts, we assess their impact on output quality. Our findings reveal that prompt sentiment significantly influences model responses, with negative prompts often reducing factual accuracy and amplifying bias, while positive prompts tend to increase verbosity and sentiment propagation. These results highlight the importance of sentiment-aware prompt engineering for ensuring fair and reliable AI-generated content.
- Abstract(参考訳): 大規模言語モデル (LLMs) の台頭は自然言語処理 (NLP) に革命をもたらしたが、入力テキストの潜在的な感情的特性である素早い感情の影響はいまだ未解明のままである。
本研究は, 感情変化がLCM生成出力に与える影響を, コヒーレンス, 事実性, バイアスの観点から系統的に検討した。
我々は,レキシコンベースとトランスフォーマーベースの両方の感情分析手法を用いて,Claude,DeepSeek,GPT-4,Gemini,LLaMAの5つの主要なLCMからの応答を分類し,評価する。
私たちの分析は、コンテンツ生成、会話型AI、法的および財務分析、ヘルスケアAI、クリエイティブライティング、および技術ドキュメントを含む、AI駆動の6つのアプリケーションにまたがる。
プロンプトを変換することで、アウトプットの品質への影響を評価する。
以上の結果から,肯定的な感情はモデル反応に大きく影響し,否定的な感情は事実の精度を低下させ,バイアスを増幅する一方,肯定的な感情は冗長性や感情の伝播を増大させる傾向が示唆された。
これらの結果は、公平で信頼性の高いAI生成コンテンツを保証するために、感情認識のプロンプトエンジニアリングの重要性を強調している。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - ProSA: Assessing and Understanding the Prompt Sensitivity of LLMs [72.13489820420726]
ProSAは、大規模な言語モデルにおいて、迅速な感度を評価し、理解するために設計されたフレームワークである。
我々の研究は、データセットやモデル間で迅速に感度が変動することを発見し、より大きなモデルでは堅牢性が向上することを示した。
論文 参考訳(メタデータ) (2024-10-16T09:38:13Z) - Revise, Reason, and Recognize: LLM-Based Emotion Recognition via Emotion-Specific Prompts and ASR Error Correction [31.677026213735363]
本研究では、音響学、言語学、心理学から感情固有の知識を取り入れた新しいプロンプトを提案する。
LLMトレーニングスキームの有用性を検討するために,文脈認識学習,文脈内学習,指導訓練の実験を行った。
本研究の目的は、感情認識および関連ドメインにおけるLLMの使用を改善することである。
論文 参考訳(メタデータ) (2024-09-23T21:07:06Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - Semantic Change Characterization with LLMs using Rhetorics [0.1474723404975345]
本研究では,LLMが3種類の意味変化(思考,関係,方向)を特徴づける可能性について検討する。
本結果は,意味的変化の捕捉と解析におけるLLMの有効性を強調し,計算言語応用を改善する上で有用な洞察を提供するものである。
論文 参考訳(メタデータ) (2024-07-23T16:32:49Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - How are Prompts Different in Terms of Sensitivity? [50.67313477651395]
本稿では,関数の感度に基づく包括的即時解析を提案する。
出力に対する入力トークンの関連性に異なるプロンプトがどう影響するかを実証的に示すために、勾配に基づく唾液度スコアを使用する。
本稿では, 感度推定をペナルティ項として組み込んだ感度認識復号法を標準グリーディ復号法で導入する。
論文 参考訳(メタデータ) (2023-11-13T10:52:01Z) - AI Text-to-Behavior: A Study In Steerability [0.0]
大規模言語モデル(LLM)の操舵性に関する研究
我々は,OCEANと呼ばれる行動心理学の枠組みを用いて,モデルが調整されたプロンプトに対する応答性を定量的に測定した。
以上の結果から,GPTの汎用性と,ニュアンス命令の識別と適応能力が評価された。
論文 参考訳(メタデータ) (2023-08-07T18:14:24Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - PromptRobust: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts [76.18347405302728]
本研究は、文字、単語、文、意味といった複数のレベルにわたるプロンプトを標的とした、敵対的なテキスト攻撃を多用する。
相手のプロンプトは、感情分析、自然言語推論、読書理解、機械翻訳、数学の問題解決など様々なタスクに使用される。
以上の結果から,現代の大規模言語モデルでは,敵対的プロンプトに対して頑健ではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-07T15:37:00Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。