論文の概要: Cracking CodeWhisperer: Analyzing Developers' Interactions and Patterns During Programming Tasks
- arxiv url: http://arxiv.org/abs/2510.11516v1
- Date: Mon, 13 Oct 2025 15:22:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.429016
- Title: Cracking CodeWhisperer: Analyzing Developers' Interactions and Patterns During Programming Tasks
- Title(参考訳): CodeWhispererのクラック: プログラミングタスクにおける開発者のインタラクションとパターンの分析
- Authors: Jeena Javahar, Tanya Budhrani, Manaal Basha, Cleidson R. B. de Souza, Ivan Beschastnikh, Gema Rodriguez-Perez,
- Abstract要約: 我々は、LLMベースのコード生成ツールであるAmazonのCodeWhispererと開発者がどのように関わるかを調査する。
参加者10名を対象に2つのユーザスタディを行った。
1)インクリメンタルコードの改良,2)自然言語コメントを用いた明示的な指示,3)モデル提案によるベースライン構造化,4)外部ソースによる統合的使用,の4つの行動パターンを識別する。
- 参考スコア(独自算出の注目度): 4.321456509547389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of AI code-generation tools is becoming increasingly common, making it important to understand how software developers are adopting these tools. In this study, we investigate how developers engage with Amazon's CodeWhisperer, an LLM-based code-generation tool. We conducted two user studies with two groups of 10 participants each, interacting with CodeWhisperer - the first to understand which interactions were critical to capture and the second to collect low-level interaction data using a custom telemetry plugin. Our mixed-methods analysis identified four behavioral patterns: 1) incremental code refinement, 2) explicit instruction using natural language comments, 3) baseline structuring with model suggestions, and 4) integrative use with external sources. We provide a comprehensive analysis of these patterns .
- Abstract(参考訳): AIコード生成ツールの使用はますます一般的になってきており、ソフトウェア開発者がこれらのツールをどのように採用しているかを理解することが重要である。
本研究では,LLMベースのコード生成ツールであるAmazonのCodeWhispererに開発者が関与する方法について検討する。
CodeWhispererと対話する2つのグループと10人の参加者による2つのユーザスタディを行い、まず、どのインタラクションがキャプチャに重要かを理解し、次に、カスタムテレメトリプラグインを使用して低レベルのインタラクションデータを収集した。
混合メソッド分析により,4つの行動パターンが同定された。
1) 段階的なコードリファインメント
2)自然言語のコメントを用いた明示的な指示
3)モデル提案によるベースライン構成、及び
4)外部ソースとの統合的使用。
これらのパターンを包括的に分析する。
関連論文リスト
- AI-Guided Exploration of Large-Scale Codebases [0.0]
大きな言語モデル(LLM)は、コードの探索を強化する新しい機会を提供する。
大規模言語モデル(LLM)の最近の進歩は、コードの探索を強化する新しい機会を提供する。
この研究は、リバースエンジニアリングとLLM誘導型、意図認識型視覚探索を統合するハイブリッドアプローチを導入している。
論文 参考訳(メタデータ) (2025-08-07T19:15:37Z) - Tool-Star: Empowering LLM-Brained Multi-Tool Reasoner via Reinforcement Learning [63.31585771716123]
大言語モデル(LLM)は、大規模強化学習(RL)を通じて顕著な推論能力を示した。
ステップワイズ推論中に複数の外部ツールを自律的に呼び出すLLベースのフレームワークであるTool-Starを紹介する。
Tool-Starは6種類のツールを統合し、データ合成とトレーニングの両方に体系的な設計を取り入れている。
論文 参考訳(メタデータ) (2025-05-22T09:00:19Z) - FamilyTool: A Multi-hop Personalized Tool Use Benchmark [93.80355496575281]
FamilyToolは、パーソナライズされたマルチホップツールの使用シナリオをシミュレートする、家族ベースのナレッジグラフ(KG)に基盤を置くベンチマークである。
実験により、最先端の大規模言語モデル(LLM)における顕著な性能ギャップが明らかになった
FamilyToolは、複雑な動的環境において、LLMエージェントの推論、適応性、スケーラビリティを評価し、前進するための重要なリソースとなる。
論文 参考訳(メタデータ) (2025-04-09T10:42:36Z) - Training of Scaffolded Language Models with Language Supervision: A Survey [62.59629932720519]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - LLM With Tools: A Survey [0.0]
本稿では,LCMに外部ツールの使用を教える領域における方法論,問題点,展開について述べる。
ユーザ命令を実行可能なプランにマッピングする一連の関数によってガイドされるツール統合のための標準化パラダイムを導入する。
調査の結果,ツール起動タイミング,選択精度,堅牢な推論プロセスの必要性など,さまざまな課題が明らかになった。
論文 参考訳(メタデータ) (2024-09-24T14:08:11Z) - What You Need is What You Get: Theory of Mind for an LLM-Based Code Understanding Assistant [0.0]
開発者のコード理解を支援するために、多くのツールがLLM(Large Language Models)を使用している。
本研究では,LLMをベースとした対話型アシスタントの設計を行った。
コード理解の初心者を支援するためにLLMベースの会話アシスタントを開発したり改善したりしたい研究者やツールビルダーに洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T14:08:15Z) - Exploring Interaction Patterns for Debugging: Enhancing Conversational
Capabilities of AI-assistants [18.53732314023887]
大規模言語モデル(LLM)は、プログラマが様々なソフトウェア開発タスクの自然言語説明を得ることを可能にする。
LLMはしばしば十分な文脈なしに行動し、暗黙の仮定や不正確な反応を引き起こす。
本稿では,対話パターンと会話分析からインスピレーションを得て,デバッグのための対話型AIアシスタントRobinを設計する。
論文 参考訳(メタデータ) (2024-02-09T07:44:27Z) - MINT: Evaluating LLMs in Multi-turn Interaction with Tools and Language
Feedback [78.60644407028022]
我々は,大規模言語モデルのマルチターンインタラクションによる課題解決能力を評価するベンチマークであるMINTを紹介する。
LLMは一般的に、ツールと言語フィードバックの恩恵を受けます。
LLMの評価、教師あり指導ファインタニング(SIFT)、人間からのフィードバックからの強化学習(RLHF)は、一般的にマルチターン能力を損なう。
論文 参考訳(メタデータ) (2023-09-19T15:25:42Z) - Using an LLM to Help With Code Understanding [13.53616539787915]
大規模言語モデル(LLM)は、コードを書くプロセスに革命をもたらしています。
プラグインはOpenAIのGPT-3.5-turboモデルに対して,ユーザが明示的なプロンプトを書かなくても4つの高レベルリクエストをクエリする。
本システムの評価は,32名の被験者を対象に行ったユーザスタディで行われ,本プラグインがWeb検索よりもタスク完了に有効であることが確認された。
論文 参考訳(メタデータ) (2023-07-17T00:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。