論文の概要: Detecting UX smells in Visual Studio Code using LLMs
- arxiv url: http://arxiv.org/abs/2602.22020v1
- Date: Wed, 25 Feb 2026 15:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.885519
- Title: Detecting UX smells in Visual Studio Code using LLMs
- Title(参考訳): LLMを用いたVisual Studio CodeのUX臭いの検出
- Authors: Andrés Rodriguez, Juan Cruz Gardey, Alejandra Garrido,
- Abstract要約: この研究は、Visual Studio CodeでUXの臭いを検出するためのLLM支援のアプローチを提示している。
検証された分類と専門家のレビューを用いて、開発者エクスペリエンスに影響を与える繰り返し発生するUX問題を特定しました。
その結果、UXの匂いの大部分は、情報、明瞭さ、直感性、効率性に集中していることが判明した。
- 参考スコア(独自算出の注目度): 41.99844472131922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integrated Development Environments shape developers' daily experience, yet the empirical study of their usability and user experience (UX) remains limited. This work presents an LLM-assisted approach to detecting UX smells in Visual Studio Code by mining and classifying user-reported issues from the GitHub repository. Using a validated taxonomy and expert review, we identified recurring UX problems that affect the developer experience. Our results show that the majority of UX smells are concentrated in informativeness, clarity, intuitiveness, and efficiency, qualities that developers value most.
- Abstract(参考訳): 統合開発環境は開発者の日々の経験を形作るが、ユーザビリティとユーザエクスペリエンス(UX)に関する実証的研究は依然として限られている。
この作業では、GitHubリポジトリからユーザ報告された問題をマイニングし、分類することで、Visual Studio CodeのUX臭いを検出するためのLLM支援アプローチを提示している。
検証された分類と専門家のレビューを用いて、開発者エクスペリエンスに影響を与える繰り返し発生するUX問題を特定しました。
結果から,UXの匂いの大部分は,開発者の最も価値の高い品質,情報性,明快さ,直感性,効率性に集中していることが判明した。
関連論文リスト
- FLEX: Continuous Agent Evolution via Forward Learning from Experience [54.796367711967754]
大規模言語モデル(LLM)によって駆動される自律エージェントは、推論と問題解決に革命をもたらしたが、訓練後も静的のままである。
我々は,LLMエージェントが蓄積された経験を通して継続的に進化することを可能にする勾配のない学習パラダイムであるFLEX(Forward Learning with Experience)を紹介する。
論文 参考訳(メタデータ) (2025-11-09T16:31:39Z) - Evaluating User Experience in Conversational Recommender Systems: A Systematic Review Across Classical and LLM-Powered Approaches [7.7954246703720935]
会話型レコメンダシステム (CRS) は, ドメイン間で研究の関心が高まりつつあるが, ユーザエクスペリエンス (UX) の評価は限られている。
既存のレビューは、特に適応型および大規模言語モデル(LLM)ベースのCRSにおいて、経験的UX研究を概ね見落としている。
以上の結果から, ポストホック調査が支配的であり, ターンレベルの情緒的UX構成はめったに評価されず, 適応行動はUX結果にはほとんど関連しないことが明らかとなった。
これらの知見は、より透明でエンゲージメントがあり、ユーザ中心のCRS評価プラクティスの開発を支援する。
論文 参考訳(メタデータ) (2025-08-04T06:07:33Z) - Xolver: Multi-Agent Reasoning with Holistic Experience Learning Just Like an Olympiad Team [2.1492061252797536]
Xolverはトレーニングフリーのマルチエージェント推論フレームワークである。
外部と自己検索を含む多様な体験モダリティを統合している。
Xolverは、特殊推論エージェントを一貫して上回っている。
論文 参考訳(メタデータ) (2025-06-17T06:47:19Z) - Untold Stories: Unveiling the Scarce Contributions of UX Professionals to Usability Issue Discussions of Open Source Software Projects [11.767394881100223]
本研究はUX専門家のユーザビリティ問題への取り組みとフォローアップに対するアプローチを明らかにする。
他のコントリビュータと比較して、UX専門家は幅広いユーザビリティの問題に対処し、彼らのスタンスを支持し、感情よりも現実的だった。
論文 参考訳(メタデータ) (2025-02-24T15:45:13Z) - How Propense Are Large Language Models at Producing Code Smells? A Benchmarking Study [45.126233498200534]
コードの臭いを生成するための大規模言語モデルの妥当性を評価するためのベンチマークであるCodeSmellEvalを紹介する。
当社のベンチマークには、Propensity Smelly Score (PSC) と、メソッドレベルのコードの臭いを収集したデータセットであるCodeSmellDataが含まれている。
CodeSmellEvalの使用を実証するために,CodeLlamaとMistralの2つの最先端LLMを用いてケーススタディを行った。
論文 参考訳(メタデータ) (2024-12-25T21:56:35Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - CoPS: Empowering LLM Agents with Provable Cross-Task Experience Sharing [70.25689961697523]
クロスタスク体験の共有と選択によるシーケンシャル推論を強化する一般化可能なアルゴリズムを提案する。
我々の研究は、既存のシーケンシャルな推論パラダイムのギャップを埋め、タスク間体験の活用の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-22T03:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。