論文の概要: Engagement in Code Review: Emotional, Behavioral, and Cognitive Dimensions in Peer vs. LLM Interactions
- arxiv url: http://arxiv.org/abs/2512.05309v1
- Date: Thu, 04 Dec 2025 23:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.836658
- Title: Engagement in Code Review: Emotional, Behavioral, and Cognitive Dimensions in Peer vs. LLM Interactions
- Title(参考訳): コードレビューにおけるエンゲージメント:ピア対LLM相互作用における感情的,行動的,認知的次元
- Authors: Adam Alami, Nathan Cassee, Thiago Rocha Silva, Elda Paja, Neil A. Ernst,
- Abstract要約: 我々は,Large Language Model (LLM) を用いたコードレビューを,人間のピア主導のレビューと比較した。
負のフィードバックに反応して、エンジニアが感情を調節するために使用する自己規制戦略を特定します。
情緒管理から認知的負荷管理への関与をLLMが支援したレビューで確認した。
- 参考スコア(独自算出の注目度): 4.311425473934521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code review is a socio-technical practice, yet how software engineers engage in Large Language Model (LLM)-assisted code reviews compared to human peer-led reviews is less understood. We report a two-phase qualitative study with 20 software engineers to understand this. In Phase I, participants exchanged peer reviews and were interviewed about their affective responses and engagement decisions. In Phase II, we introduced a new prompt matching engineers' preferences and probed how characteristics shaped their reactions. We develop an integrative account linking emotional self-regulation to behavioral engagement and resolution. We identify self-regulation strategies that engineers use to regulate their emotions in response to negative feedback: reframing, dialogic regulation, avoidance, and defensiveness. Engagement proceeds through social calibration; engineers align their responses and behaviors to the relational climate and team norms. Trajectories to resolution, in the case of peer-led review, vary by locus (solo/dyad/team) and an internal sense-making process. With the LLM-assisted review, emotional costs and the need for self-regulation seem lower. When LLM feedback aligned with engineers' cognitive expectations, participants reported reduced processing effort and a potentially higher tendency to adopt. We show that LLM-assisted review redirects engagement from emotion management to cognitive load management. We contribute an integrative model of engagement that links emotional self-regulation to behavioral engagement and resolution, showing how affective and cognitive processes influence feedback adoption in peer-led and LLM-assisted code reviews. We conclude that AI is best positioned as a supportive partner to reduce cognitive and emotional load while preserving human accountability and the social meaning of peer review and similar socio-technical activities.
- Abstract(参考訳): コードレビューは社会技術的プラクティスであるが、ソフトウェア技術者がLarge Language Model (LLM)の支援されたコードレビューを人間のピア主導のレビューと比べてどのように行うかは理解されていない。
我々は20人のソフトウェアエンジニアによる2段階の質的研究を報告し、これを理解した。
第1フェーズでは、参加者はピアレビューを交換し、感情的な反応とエンゲージメントの決定についてインタビューを受けた。
フェーズIIでは,エンジニアの好みに合った新しいプロンプトを導入し,その特性がどのように反応を形作るのかを検証した。
我々は、感情的な自己統制と行動の関与と解決を結びつける統合的アカウントを開発する。
負のフィードバック(リフレーミング、ダイアログ的規制、回避、防御)に反応して、エンジニアが感情を規制するために使用する自己規制戦略を特定します。
エンゲージメントは社会的キャリブレーションを通じて進行し、エンジニアはリレーショナルな気候やチームの規範に反応と行動を調整する。
解像度への軌道は、ピアリードレビューの場合、軌跡(solo/dyad/team)と内部の感覚形成プロセスによって異なる。
LLMによるレビューでは、感情的なコストと自己統制の必要性は低いように思われる。
LLMのフィードバックがエンジニアの認知的期待に沿うと、参加者は処理の労力を減らし、採用する傾向が高くなると報告した。
情緒管理から認知的負荷管理への関与をLLMが支援したレビューで確認した。
我々は、感情的な自己統制と行動の関与と解決を結びつけ、感情的および認知的プロセスがピアリードおよびLLM支援コードレビューにおけるフィードバック導入にどのように影響するかを示す、統合的なエンゲージメントモデルに貢献する。
我々は、人間の説明責任とピアレビューの社会的意味を保ちながら、認知的および感情的負荷を減らすための支援パートナーとして、AIが最も適していると結論付けている。
関連論文リスト
- Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Intent-Aware Self-Correction for Mitigating Social Biases in Large Language Models [38.1620443730172]
フィードバックに基づく自己補正は大規模言語モデル(LLM)の出力品質を改善する
本研究では,自己補正によるLLMのバイアスを効果的に軽減するために,意図を明確にすることが重要であることを示す。
論文 参考訳(メタデータ) (2025-03-08T02:20:43Z) - Accountability in Code Review: The Role of Intrinsic Drivers and the Impact of LLMs [6.841710924733614]
コード品質に対する説明責任の主要な原動力は、個人的標準、専門的完全性、コード品質の誇り、評価の維持である。
ソフトウェア工学へのAIの導入は、社会的整合性と集団的説明責任メカニズムを維持する必要がある。
論文 参考訳(メタデータ) (2025-02-21T21:52:29Z) - Human and Machine: How Software Engineers Perceive and Engage with AI-Assisted Code Reviews Compared to Their Peers [4.734450431444635]
本稿では,Large Language Model (LLM) を利用したコードレビューにおいて,ソフトウェアエンジニアがどのように認識し,関与しているかを検討する。
コードレビューにおけるエンゲージメントは多次元であり、認知的、感情的、行動的な側面にまたがっていることがわかった。
我々の発見は、AIツールがSE社会技術プロセスにどのように影響しているかをより深く理解するのに役立ちます。
論文 参考訳(メタデータ) (2025-01-03T20:42:51Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。