論文の概要: PerspectiveCoach: Exploring LLMs for Developer Reflection
- arxiv url: http://arxiv.org/abs/2601.02559v1
- Date: Mon, 05 Jan 2026 21:21:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.724757
- Title: PerspectiveCoach: Exploring LLMs for Developer Reflection
- Title(参考訳): PerspectiveCoach: 開発者のリフレクションのためのLLMを探る
- Authors: Lauren Olson, Emitzá Guzmán, Florian Kunneman,
- Abstract要約: PerspectiveCoachは、大きな言語モデル(LLM)ベースの会話ツールで、構造化された視点取り演習を通じて開発者を誘導するように設計されている。
我々は、パースペクティブコーチが倫理的推論とユーザ視点への関与をどのようにサポートするかを研究する。
- 参考スコア(独自算出の注目度): 4.463132043156249
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite growing awareness of ethical challenges in software development, practitioners still lack structured tools that help them critically engage with the lived experiences of marginalized users. This paper presents PerspectiveCoach, a large language model (LLM)-powered conversational tool designed to guide developers through structured perspective-taking exercises and deepen critical reflection on how software design decisions affect marginalized communities. Through a controlled study with 18 front-end developers (balanced by sex), who interacted with the tool using a real case of online gender-based harassment, we examine how PerspectiveCoach supports ethical reasoning and engagement with user perspectives. Qualitative analysis revealed increased self-awareness, broadened perspectives, and more nuanced ethical articulation, while a complementary human-human study contextualized these findings. Text similarity analyses demonstrated that participants in the human-PerspectiveCoach study improved the fidelity of their restatements over multiple attempts, capturing both surface-level and semantic aspects of user concerns. However, human-PerspectiveCoach's restatements had a lower baseline than the human-human conversations, highlighting contextual differences in impersonal and interpersonal perspective-taking. Across the study, participants rated the tool highly for usability and relevance. This work contributes an exploratory design for LLM-powered end-user perspective-taking that supports critical, ethical self-reflection and offers empirical insights (i.e., enhancing adaptivity, centering plurality) into how such tools can help practitioners build more inclusive and socially responsive technologies.
- Abstract(参考訳): ソフトウェア開発における倫理的課題に対する認識の高まりにもかかわらず、実践者はいまだに、疎外されたユーザの生きた経験に批判的に関与するための構造化されたツールを欠いている。
本稿では,大規模言語モデル (LLM) を利用した対話型ツールである PerspectiveCoach について述べる。
オンラインジェンダーベースのハラスメントの実例を用いてツールと対話する18人のフロントエンド開発者(性別によるバランス)によるコントロール研究を通じて、パースペクティブコーチが倫理的推論とユーザ視点への関与をどのようにサポートするかを検討する。
質的分析では、自己認識が増加し、視点が拡大し、倫理的明瞭度が向上し、補完的な人間と人間の研究がこれらの知見を文脈的に分析した。
テキスト類似性分析により、ヒューマン・パースペクティブ・コーチ研究の参加者は、複数回の試行で再試行の忠実さを改善し、ユーザ関心事の表面レベルと意味的側面の両方を捉えた。
しかし、ヒト・パースペクティブ・コーチの回復は人間と人間の会話よりも基準線が低く、非対人的視点と対人的視点の文脈的差異が強調された。
調査全体を通じて、参加者はツールのユーザビリティと妥当性を高く評価した。
この研究は、批判的で倫理的な自己回帰をサポートし、実践者がより包括的で社会的にレスポンシブな技術を構築するのに役立つ経験的洞察(適応性の向上、複数の中心化)を提供するLLMを利用したエンドユーザー視点の探索設計に貢献する。
関連論文リスト
- Explain Before You Answer: A Survey on Compositional Visual Reasoning [74.27548620675748]
構成的視覚推論は、マルチモーダルAIにおける重要な研究フロンティアとして登場した。
本調査は,トップ会場(CVPR,ICCV,NeurIPS,ICML,ACLなど)から260以上の論文を体系的にレビューする。
次に60以上のベンチマークとそれに対応するメトリクスを、基底精度、連鎖忠実性、高分解能知覚などの次元に沿って探索する。
論文 参考訳(メタデータ) (2025-08-24T11:01:51Z) - HumanSense: From Multimodal Perception to Empathetic Context-Aware Responses through Reasoning MLLMs [46.59239283399911]
HumanSenseは、MLLMの人間中心の知覚と相互作用能力を評価するために設計されたベンチマークである。
評価の結果,先進的なMLLMには改善の余地が残っており,特に高度なインタラクション指向タスクでは改善の余地があることが判明した。
我々は,Omniモデルの推論能力を高めるために,多段階・モダリティ・プログレッシブ強化学習を採用する。
論文 参考訳(メタデータ) (2025-08-14T12:14:15Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Supporting Experts with a Multimodal Machine-Learning-Based Tool for
Human Behavior Analysis of Conversational Videos [40.30407535831779]
そこで我々は,プロビデンス(Providence)を開発した。プロビデンス(Providence)は,専門家による形式的な研究から得られた設計上の考察に基づくビジュアルプログラミングツールである。
これにより、専門家はさまざまな機械学習アルゴリズムを組み合わせることで、コードを書くことなく人間の行動の手がかりを捉えることができる。
本研究は,会話の場面検索タスクの達成に要する認知負荷が少なく,ユーザビリティと満足度の高いアウトプットを示した。
論文 参考訳(メタデータ) (2024-02-17T00:27:04Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - An Interdisciplinary Perspective on Evaluation and Experimental Design
for Visual Text Analytics: Position Paper [24.586485898038312]
本稿では,視覚的テキスト分析手法の評価に焦点をあてる。
視覚テキスト分析手法を評価する上で,課題の4つの主要なグループを同定する。
論文 参考訳(メタデータ) (2022-09-23T11:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。