論文の概要: AI-Powered Commit Explorer (APCE)
- arxiv url: http://arxiv.org/abs/2507.16063v1
- Date: Mon, 21 Jul 2025 20:58:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.889558
- Title: AI-Powered Commit Explorer (APCE)
- Title(参考訳): AIパワーのコミットエクスプローラ(APCE)
- Authors: Yousab Grees, Polina Iaremchuk, Ramtin Ehsani, Esteban Parra, Preetha Chatterjee, Sonia Haiduc,
- Abstract要約: この問題を軽減する手段として,LLM(Large Language Model)の生成したコミットメッセージが登場した。
我々は,LLMの生成したコミットメッセージの使用と研究において,開発者や研究者を支援するツールであるAI-Powered Commit Explorer (APCE)を紹介した。
- 参考スコア(独自算出の注目度): 4.651023094799028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Commit messages in a version control system provide valuable information for developers regarding code changes in software systems. Commit messages can be the only source of information left for future developers describing what was changed and why. However, writing high-quality commit messages is often neglected in practice. Large Language Model (LLM) generated commit messages have emerged as a way to mitigate this issue. We introduce the AI-Powered Commit Explorer (APCE), a tool to support developers and researchers in the use and study of LLM-generated commit messages. APCE gives researchers the option to store different prompts for LLMs and provides an additional evaluation prompt that can further enhance the commit message provided by LLMs. APCE also provides researchers with a straightforward mechanism for automated and human evaluation of LLM-generated messages. Demo link https://youtu.be/zYrJ9s6sZvo
- Abstract(参考訳): バージョン管理システムにおけるコミットメッセージは、ソフトウェアシステムのコード変更に関する貴重な情報を提供する。
コミットメッセージは、何が変更されたのか、なぜ変更されたのかを説明する、将来の開発者に残された唯一の情報ソースである。
しかし、高品質なコミットメッセージを書くことは、実際には無視されることが多い。
この問題を軽減する手段として,LLM(Large Language Model)の生成したコミットメッセージが登場した。
我々は,LLMの生成したコミットメッセージの使用と研究において,開発者や研究者を支援するツールであるAI-Powered Commit Explorer (APCE)を紹介した。
APCEは研究者にLLMの異なるプロンプトを格納するオプションを提供し、LLMが提供するコミットメッセージをさらに強化する追加評価プロンプトを提供する。
APCEはまた、LLM生成メッセージの自動化および人為的評価のための簡単なメカニズムを研究者に提供する。
デモリンク https://youtu.be/zYrJ9s6sZvo
関連論文リスト
- Evaluating Generated Commit Messages with Large Language Models [10.048749643042491]
コミットメッセージは、コード変更の文書化や説明に役立つため、ソフトウェア開発において不可欠である。
本研究では,大規模言語モデル (LLM) がメッセージ品質の自動評価手段としての可能性について検討する。
論文 参考訳(メタデータ) (2025-07-15T01:50:20Z) - An Empirical Study on Commit Message Generation using LLMs via In-Context Learning [26.39743339039473]
コミットメッセージは、自然言語のコード変更を簡潔に記述する。
我々は,大規模言語モデル (LLM) とテキスト内学習 (ICL) の武器を借りてコミットメッセージを生成することを提案する。
論文 参考訳(メタデータ) (2025-02-26T07:47:52Z) - Context Conquers Parameters: Outperforming Proprietary LLM in Commit Message Generation [4.400274233826898]
オープンソースのLarge Language Modelsは、OMGが生成したものに匹敵するコミットメッセージを生成することができる。
4ビット量子化8BオープンソースLLMを用いたCMG手法であるlOcal MessagE GenerAtorを提案する。
論文 参考訳(メタデータ) (2024-08-05T14:26:41Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Commit Messages in the Age of Large Language Models [0.9217021281095906]
コード変更に基づいてコミットメッセージを生成するOpenAIのChatGPTの性能を評価する。
本稿では、ChatGPTを用いて得られた結果と、コミットデータに特化して訓練された以前の自動コミットメッセージ生成手法を比較した。
論文 参考訳(メタデータ) (2024-01-31T06:47:12Z) - Using Large Language Models for Commit Message Generation: A Preliminary
Study [5.5784148764236114]
大規模言語モデル(LLM)はコミットメッセージを自動かつ効果的に生成するために使用することができる。
366サンプルの78%では, LLMが生成したコミットメッセージが人間によって最高のものと評価された。
論文 参考訳(メタデータ) (2024-01-11T14:06:39Z) - Prompt Highlighter: Interactive Control for Multi-Modal LLMs [50.830448437285355]
本研究では,マルチモーダル LLM (LLMs&VLMs) 推論における重要な側面として,明示的な制御可能なテキスト生成を目標とする。
本稿では,新しい推論手法であるPrompt Highlighterを導入し,ユーザが特定のプロンプトスパンをハイライトし,生成中のフォーカスをインタラクティブに制御できるようにする。
推論中、注意重みを通して強調されたトークンでモデルを導くことで、より望ましい出力が得られます。
論文 参考訳(メタデータ) (2023-12-07T13:53:29Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Guiding LLM to Fool Itself: Automatically Manipulating Machine Reading
Comprehension Shortcut Triggers [76.77077447576679]
真のラベルに急激な相関関係を持つ機能によって引き起こされるショートカットは、機械読み取り(MRC)システムに対する潜在的な脅威として現れている。
サンプルにショートカットトリガーを追加するためのエディタをガイドするフレームワークを導入します。
GPT4をエディタとして使うと、LCMを騙すサンプルのトリガショートカットをうまく編集できる。
論文 参考訳(メタデータ) (2023-10-24T12:37:06Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Attributed Question Answering: Evaluation and Modeling for Attributed
Large Language Models [68.37431984231338]
大規模言語モデル(LLM)は、直接の監督をほとんど必要とせず、様々なタスクにわたって印象的な結果を示している。
我々は、LLMが生成するテキストの属性に持つ能力は、この設定においてシステム開発者とユーザの両方にとって不可欠であると信じている。
論文 参考訳(メタデータ) (2022-12-15T18:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。