論文の概要: StressPrompt: Does Stress Impact Large Language Models and Human Performance Similarly?
- arxiv url: http://arxiv.org/abs/2409.17167v1
- Date: Sat, 14 Sep 2024 08:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 16:50:22.114174
- Title: StressPrompt: Does Stress Impact Large Language Models and Human Performance Similarly?
- Title(参考訳): StressPrompt: ストレスは大規模言語モデルやヒューマンパフォーマンスに同じように影響を与えますか?
- Authors: Guobin Shen, Dongcheng Zhao, Aorigele Bao, Xiang He, Yiting Dong, Yi Zeng,
- Abstract要約: 本研究では,Large Language Models (LLMs) がヒトに類似したストレス応答を示すかを検討する。
我々はストレスプロンプトと呼ばれる新しいプロンプトを開発し、様々なレベルのストレスを誘発するように設計された。
この結果は、LLMが人間と同様に、Yerkes-Dodson法則と一致して、適度なストレスの下で最適に機能することを示唆している。
- 参考スコア(独自算出の注目度): 7.573284169975824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human beings often experience stress, which can significantly influence their performance. This study explores whether Large Language Models (LLMs) exhibit stress responses similar to those of humans and whether their performance fluctuates under different stress-inducing prompts. To investigate this, we developed a novel set of prompts, termed StressPrompt, designed to induce varying levels of stress. These prompts were derived from established psychological frameworks and carefully calibrated based on ratings from human participants. We then applied these prompts to several LLMs to assess their responses across a range of tasks, including instruction-following, complex reasoning, and emotional intelligence. The findings suggest that LLMs, like humans, perform optimally under moderate stress, consistent with the Yerkes-Dodson law. Notably, their performance declines under both low and high-stress conditions. Our analysis further revealed that these StressPrompts significantly alter the internal states of LLMs, leading to changes in their neural representations that mirror human responses to stress. This research provides critical insights into the operational robustness and flexibility of LLMs, demonstrating the importance of designing AI systems capable of maintaining high performance in real-world scenarios where stress is prevalent, such as in customer service, healthcare, and emergency response contexts. Moreover, this study contributes to the broader AI research community by offering a new perspective on how LLMs handle different scenarios and their similarities to human cognition.
- Abstract(参考訳): 人間はしばしばストレスを経験し、パフォーマンスに大きな影響を及ぼす。
本研究では,Large Language Models (LLMs) がヒトに類似したストレス応答を示すか,その性能が異なるストレス誘発プロンプトの下で変動するかを検討する。
これを調べるために,ストレスプロンプトと呼ばれる新しいプロンプトを開発した。
これらのプロンプトは、確立された心理学的枠組みから派生し、人間の被験者の格付けに基づいて慎重に校正された。
次に、これらのプロンプトを複数のLSMに適用して、指示追従、複雑な推論、感情的知性など、様々なタスクに対する応答を評価する。
この結果は、LLMが人間と同様に、Yerkes-Dodson法則と一致して、適度なストレスの下で最適に機能することを示唆している。
特に、その性能は、低ストレス条件と高ストレス条件の両方で低下する。
さらに, これらのストレスプロンプットはLLMの内部状態を著しく変化させ, ストレスに対する人間の反応を反映する神経表現の変化をもたらすことが明らかとなった。
この研究は、LLMの運用上の堅牢性と柔軟性に関する重要な洞察を提供し、カスタマーサービス、ヘルスケア、緊急対応状況など、ストレスが頻発する現実のシナリオにおいて、ハイパフォーマンスを維持できるAIシステムを設計することの重要性を実証する。
さらに、この研究は、LLMが異なるシナリオをどのように扱うか、そして人間の認知とどのように類似しているかの新しい視点を提供することによって、幅広いAI研究コミュニティに貢献する。
関連論文リスト
- PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Employing Multimodal Machine Learning for Stress Detection [8.430502131775722]
メンタルウェルネスは、今日の世界で最も無視されているが決定的な側面の1つである。
本研究では、人の作業行動とストレスレベルを監視するために、マルチモーダルなAIベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-15T14:34:16Z) - Clever Hans or Neural Theory of Mind? Stress Testing Social Reasoning in
Large Language Models [82.50173296858377]
多くの逸話例は、ChatGPTやGPT-4のような新しい大規模言語モデル(LLM)が、N-ToM(Neural Theory-of-Mind)を示すことを示唆するために使用された。
我々は,LLMsのN-ToMの範囲を6つのタスクに対して広範囲に評価することにより検討し,LLMsが特定のN-ToM能力を示す一方で,この挙動は堅牢性には程遠いことを見出した。
論文 参考訳(メタデータ) (2023-05-24T06:14:31Z) - Inducing anxiety in large language models can induce bias [47.85323153767388]
我々は、確立された12の大規模言語モデル(LLM)に焦点を当て、精神医学でよく用いられる質問紙に答える。
以上の結果から,最新のLSMの6つが不安アンケートに強く反応し,人間に匹敵する不安スコアが得られた。
不安誘発は、LSMのスコアが不安アンケートに影響を及ぼすだけでなく、人種差別や老化などの偏見を測る以前に確立されたベンチマークにおいて、それらの行動に影響を及ぼす。
論文 参考訳(メタデータ) (2023-04-21T16:29:43Z) - Insights on Modelling Physiological, Appraisal, and Affective Indicators
of Stress using Audio Features [10.093374748790037]
被験者がストレスエピソードを誘発している最中に収集した音声サンプルを用いて、個人ストレス応答の自動的特徴付けの有望な結果を示した。
我々は, 音声信号が生理的バイオマーカーのモデル化に適しているかどうかについて, 新たな知見を提示する。
論文 参考訳(メタデータ) (2022-05-09T14:32:38Z) - Hybrid Handcrafted and Learnable Audio Representation for Analysis of
Speech Under Cognitive and Physical Load [17.394964035035866]
音声におけるタスク負荷検出のための5つのデータセットを提案する。
音声記録は、ボランティアのコホートに認知的ストレスまたは身体的ストレスが引き起こされたとして収集された。
このデータセットを用いて、新たな自己教師型音声表現の設計と評価を行った。
論文 参考訳(メタデータ) (2022-03-30T19:43:21Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - MUSER: MUltimodal Stress Detection using Emotion Recognition as an
Auxiliary Task [22.80682208862559]
ストレスと感情は人間の感情状態であり、ストレスは感情の制御と発現に重要な影響を与えることが証明されている。
本研究では,ストレス検出を改善するための補助タスクとして,感情認識の有用性を検討する。
本稿では,高速な動的サンプリング戦略を備えたトランスフォーマーモデルアーキテクチャとマルチタスク学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-17T20:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。