論文の概要: In-IDE Generation-based Information Support with a Large Language Model
- arxiv url: http://arxiv.org/abs/2307.08177v2
- Date: Thu, 10 Aug 2023 19:30:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 16:21:40.097867
- Title: In-IDE Generation-based Information Support with a Large Language Model
- Title(参考訳): 大規模言語モデルを用いたIDE内情報提供
- Authors: Daye Nam and Andrew Macvean and Vincent Hellendoorn and Bogdan
Vasilescu and Brad Myers
- Abstract要約: プラグインクエリ OpenAI の GPT-3.5 と GPT-4 モデルには,ユーザが明示的なプロンプトを書かなくても,高レベルの要求が4つある。
本システムの評価は,32名の被験者を対象に行ったユーザスタディで行われ,本プラグインがWeb検索よりもタスク完了に有効であることが確認された。
- 参考スコア(独自算出の注目度): 11.853186054993987
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding code is challenging, especially when working in new and complex
development environments. Code comments and documentation can help, but are
typically scarce or hard to navigate. Large language models (LLMs) are
revolutionizing the process of writing code. Can they do the same for helping
understand it? In this study, we provide a first investigation of an LLM-based
conversational UI built directly in the IDE that is geared towards code
understanding. Our IDE plugin queries OpenAI's GPT-3.5 and GPT-4 models with
four high-level requests without the user having to write explicit prompts: to
explain a highlighted section of code, provide details of API calls used in the
code, explain key domain-specific terms, and provide usage examples for an API.
The plugin also allows for open-ended prompts, which are automatically
contextualized to the LLM with the program being edited. We evaluate this
system in a user study with 32 participants, which confirms that using our
plugin can aid task completion more than web search. We additionally provide a
thorough analysis of the ways developers use, and perceive the usefulness of,
our system, among others finding that the usage and benefits differ
significantly between students and professionals. We conclude that in-IDE
prompt-less interaction with LLMs is a promising future direction for tool
builders.
- Abstract(参考訳): コードを理解することは、特に新しい複雑な開発環境で働く場合、難しい。
コードコメントとドキュメンテーションは役に立ちますが、通常、ナビゲートがほとんどまたは難しいです。
大規模言語モデル(LLM)は、コードを書くプロセスに革命をもたらしています。
彼らはそれを理解するのに同じようにできるだろうか?
本研究では,LLMをベースとした対話型UIをIDEから直接構築し,コード理解を目的とした最初の調査を行う。
私たちのIDEプラグインは、OpenAIのGPT-3.5とGPT-4モデルをユーザが明示的なプロンプトを書かなくても4つのハイレベルなリクエストでクエリします。
プラグインはオープンなプロンプトも可能で、プログラムが編集された後自動的にLLMにコンテクスト化される。
このシステムについて,32名を対象に行ったユーザ調査で評価し,web 検索以上の作業完了を支援することができることを確認した。
さらに,開発者の利用方法の徹底的な分析を行い,システムの有用性を把握し,その利用方法とメリットが学生と専門家の間で大きく異なることを発見した。
llmsとのイデアル内プロンプトレスインタラクションは、ツールビルダーにとって将来有望な方向性であると結論付ける。
関連論文リスト
- Codellm-Devkit: A Framework for Contextualizing Code LLMs with Program Analysis Insights [9.414198519543564]
codellm-devkit (以下, CLDK') は,プログラム解析のプロセスを大幅に単純化したオープンソースライブラリである。
CLDKは開発者に対して直感的でユーザフレンドリなインターフェースを提供しています。
論文 参考訳(メタデータ) (2024-10-16T20:05:59Z) - What You Need is What You Get: Theory of Mind for an LLM-Based Code Understanding Assistant [0.0]
開発者のコード理解を支援するために、多くのツールがLLM(Large Language Models)を使用している。
本研究では,LLMをベースとした対話型アシスタントの設計を行った。
コード理解の初心者を支援するためにLLMベースの会話アシスタントを開発したり改善したりしたい研究者やツールビルダーに洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T14:08:15Z) - BISCUIT: Scaffolding LLM-Generated Code with Ephemeral UIs in Computational Notebooks [14.640473990776691]
計算ノートブックに新たなワークフローを導入し,LLMベースのコード生成を短時間のUIステップで拡張する。
本稿では,このワークフローを JupyterLab の拡張である BISCUIT に提示する。
BISCUITはユーザの理解を助けるためのコード表現を提供し、迅速なエンジニアリングの複雑さを減らし、ユーザが異なる変数を探索するための遊び場を作成する。
論文 参考訳(メタデータ) (2024-04-10T23:28:09Z) - LLMCheckup: Conversational Examination of Large Language Models via Interpretability Tools and Self-Explanations [26.340786701393768]
対話の形で説明を提供する解釈可能性ツールは,ユーザの理解を高める上で有効であることを示す。
しかしながら、対話ベースの説明のための現在のソリューションは、しばしば外部ツールやモジュールを必要とし、設計されていないタスクに簡単に転送できない。
ユーザがその振る舞いについて,最先端の大規模言語モデル(LLM)とチャットできる,アクセスしやすいツールを提案する。
論文 参考訳(メタデータ) (2024-01-23T09:11:07Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - TaskWeaver: A Code-First Agent Framework [50.99683051759488]
TaskWeaverは、LLMで動く自律エージェントを構築するためのコードファーストフレームワークである。
ユーザ要求を実行可能なコードに変換し、ユーザ定義プラグインを呼び出し可能な関数として扱う。
リッチなデータ構造、フレキシブルなプラグイン利用、動的プラグイン選択のサポートを提供する。
論文 参考訳(メタデータ) (2023-11-29T11:23:42Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Repository-Level Prompt Generation for Large Language Models of Code [28.98699307030983]
本稿では,提案手法を用いてサンプル固有のプロンプトを生成するフレームワークを提案する。
プロンプトプロポーザルはリポジトリ全体からコンテキストを取ります。
我々は,Google Codeアーカイブから取得したコードリポジトリを用いて,単行コード自動補完のタスクについて実験を行った。
論文 参考訳(メタデータ) (2022-06-26T10:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。