論文の概要: Emotional Strain and Frustration in LLM Interactions in Software Engineering
- arxiv url: http://arxiv.org/abs/2504.10050v2
- Date: Tue, 15 Apr 2025 08:42:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:19.959619
- Title: Emotional Strain and Frustration in LLM Interactions in Software Engineering
- Title(参考訳): ソフトウェア工学におけるLLM相互作用の感情ひずみとフラストレーション
- Authors: Cristina Martinez Montes, Ranim Khojah,
- Abstract要約: 大規模言語モデル(LLM)は、ソフトウェア工学における日々のタスクにますます統合されています。
フラストレーションは、ストレスとバーンアウトにエスカレートした場合、エンジニアの生産性と幸福に悪影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large Language Models (LLMs) are increasingly integrated into various daily tasks in Software Engineering such as coding and requirement elicitation. Despite their various capabilities and constant use, some interactions can lead to unexpected challenges (e.g. hallucinations or verbose answers) and, in turn, cause emotions that develop into frustration. Frustration can negatively impact engineers' productivity and well-being if they escalate into stress and burnout. In this paper, we assess the impact of LLM interactions on software engineers' emotional responses, specifically strains, and identify common causes of frustration when interacting with LLMs at work. Based on 62 survey responses from software engineers in industry and academia across various companies and universities, we found that a majority of our respondents experience frustrations or other related emotions regardless of the nature of their work. Additionally, our results showed that frustration mainly stemmed from issues with correctness and less critical issues such as adaptability to context or specific format. While such issues may not cause frustration in general, artefacts that do not follow certain preferences, standards, or best practices can make the output unusable without extensive modification, causing frustration over time. In addition to the frustration triggers, our study offers guidelines to improve the software engineers' experience, aiming to minimise long-term consequences on mental health.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コーディングや要求の誘導など、ソフトウェア工学における日々のタスクにますます統合されています。
様々な能力と絶え間ない使用にもかかわらず、いくつかの相互作用は予期せぬ困難(幻覚や冗長な答えなど)を引き起こし、結果として、フラストレーションに陥る感情を引き起こす。
フラストレーションは、ストレスとバーンアウトにエスカレートした場合、エンジニアの生産性と幸福に悪影響を及ぼす可能性がある。
本稿では,LLMがソフトウェア技術者の感情的反応,特にストレスに与える影響を評価し,職場でLLMと対話する際のフラストレーションの原因を明らかにする。
さまざまな企業や大学にまたがる業界や学界のソフトウェアエンジニアから62件の調査回答に基づいて、回答者の大多数が、自分たちの仕事の性質に関わらず、フラストレーションやその他の関連する感情を経験していることが分かりました。
さらに, この結果から, コンテクストへの適応性や特定の形式への適応性など, 正確性や批判性の低い問題に起因したフラストレーションが示唆された。
このような問題は一般にフラストレーションを引き起こすものではないが、特定の嗜好、基準、ベストプラクティスに従わない人工物は、広範囲な修正なしに出力を使用できなくなり、時間の経過とともにフラストレーションを引き起こす。
フラストレーションの引き金に加えて、我々の研究は、メンタルヘルスに対する長期的な影響を最小限に抑えることを目的として、ソフトウェアエンジニアの経験を改善するためのガイドラインを提供する。
関連論文リスト
- Seeker: Towards Exception Safety Code Generation with Intermediate Language Agents Framework [58.36391985790157]
現実世界のソフトウェア開発では、不適切な例外処理がコードの堅牢性と信頼性に重大な影響を与えます。
コードにおける例外処理を改善するために,大規模言語モデル (LLM) の利用について検討する。
例外処理のエキスパート開発者戦略に触発されたマルチエージェントフレームワークであるSeekerを提案する。
論文 参考訳(メタデータ) (2024-12-16T12:35:29Z) - Seeker: Enhancing Exception Handling in Code with LLM-based Multi-Agent Approach [54.03528377384397]
現実世界のソフトウェア開発では、不適切な例外処理がコードの堅牢性と信頼性に重大な影響を与えます。
コードにおける例外処理を改善するために,大規模言語モデル (LLM) の利用について検討する。
例外処理のエキスパート開発者戦略にインスパイアされたマルチエージェントフレームワークであるSeekerを提案する。
論文 参考訳(メタデータ) (2024-10-09T14:45:45Z) - BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
我々は,Bloomの分類にインスパイアされた新しいプロンプト技術であるBloomWiseを導入し,Large Language Models(LLMs)の性能を向上させる。
より洗練された認知スキルを身につける必要性に関する決定は、LLMによる自己評価に基づいている。
4つの一般的な算数推論データセットの広範な実験において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - Overwhelmed Software Developers [41.12484194361493]
本研究では,ソフトウェア開発の領域で過度に圧倒されていると感じた経験について考察する。
我々は,コミュニケーション誘発,障害関連,組織,多様性,技術的,時間的,ポジティブな7つのカテゴリを特定した。
私たちは、ソフトウェア開発者は、より効果的に圧倒の嵐をナビゲートできるユニークな特性を持っていると信じています。
論文 参考訳(メタデータ) (2024-06-06T13:25:18Z) - Overwhelmed software developers: An Interpretative Phenomenological
Analysis [43.18707677931078]
最近、圧倒された経験のある2人のソフトウェア開発者についてインタビューした。
過圧の7つのカテゴリ(コミュニケーション、障害、組織、多様性、技術的、時間的、ポジティブな過圧)を明らかにする。
参加者は、過圧は時にポジティブで快適な体験であり、精神的な焦点、自己の野心、生産性を高めることができると報告した。
論文 参考訳(メタデータ) (2024-01-05T12:39:08Z) - Uncovering the Causes of Emotions in Software Developer Communication
Using Zero-shot LLMs [9.298552727430485]
正確な機械学習モデルをトレーニングするために使用できる、大規模なソフトウェアエンジニアリング固有のデータセットが必要である。
本稿では,ソフトウェア工学における感情の原因を検出するタスクに特化して微調整されることなく,大量のデータセット上で事前訓練されたゼロショットLCMについて検討する。
論文 参考訳(メタデータ) (2023-12-15T12:16:16Z) - The Transformative Influence of Large Language Models on Software
Development [0.0]
Generalized Large Language Models (LLM) は様々な分野に進出している。
LLMはAIペアプログラミングアシスタントとしての役割をますます高めており、重要な課題やオープンな問題も提示している。
予備的な調査結果は、データのプライバシー、偏見、誤報に関する懸念を浮き彫りにしている。
調査で確認した12のオープンな問題を特定し、これらの領域をカバーしています。
論文 参考訳(メタデータ) (2023-11-28T02:18:54Z) - Exploring the Relationship Between Personality Traits and User Feedback [9.289846887298852]
本稿では,人格特性がユーザのフィードバックに及ぼす影響について予備的検討を行う。
56人の大学生が、コースで使用されるeラーニングツールの異なるソフトウェア機能についてフィードバックを提供した。
その結果,フラストレーションに対する感受性やストレス耐性の低下がユーザのフィードバックに悪影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-22T10:10:27Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。