論文の概要: AILINKPREVIEWER: Enhancing Code Reviews with LLM-Powered Link Previews
- arxiv url: http://arxiv.org/abs/2511.09223v1
- Date: Thu, 13 Nov 2025 01:41:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.474474
- Title: AILINKPREVIEWER: Enhancing Code Reviews with LLM-Powered Link Previews
- Title(参考訳): AILINKPREVIEWER: LLMベースのリンクプレビューによるコードレビューの強化
- Authors: Panya Trakoolgerntong, Tao Xiao, Masanari Kondo, Chaiyong Ragkhitwetsagul, Morakot Choetkiertikul, Pattaraporn Sangaroonsilp, Yasutaka Kamei,
- Abstract要約: コードレビューは、開発者が品質と保守性を保証するためにコード変更を評価する、ソフトウェアエンジニアリングにおける重要なプラクティスである。
問題と外部リソースへのリンクは、追加のコンテキストを提供するためにプルリクエスト(PR)に含まれることが多い。
我々は、タイトル、記述、コメント、リンクボディコンテンツを含むPRメタデータを使用して、PR内のリンクのプレビューを生成するツールであるAIlinkPREVIEWERを紹介する。
- 参考スコア(独自算出の注目度): 4.664062055146575
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Code review is a key practice in software engineering, where developers evaluate code changes to ensure quality and maintainability. Links to issues and external resources are often included in Pull Requests (PRs) to provide additional context, yet they are typically discarded in automated tasks such as PR summarization and code review comment generation. This limits the richness of information available to reviewers and increases cognitive load by forcing context-switching. To address this gap, we present AILINKPREVIEWER, a tool that leverages Large Language Models (LLMs) to generate previews of links in PRs using PR metadata, including titles, descriptions, comments, and link body content. We analyzed 50 engineered GitHub repositories and compared three approaches: Contextual LLM summaries, Non-Contextual LLM summaries, and Metadata-based previews. The results in metrics such as BLEU, BERTScore, and compression ratio show that contextual summaries consistently outperform other methods. However, in a user study with seven participants, most preferred non-contextual summaries, suggesting a trade-off between metric performance and perceived usability. These findings demonstrate the potential of LLM-powered link previews to enhance code review efficiency and to provide richer context for developers and automation in software engineering. The video demo is available at https://www.youtube.com/watch?v=h2qH4RtrB3E, and the tool and its source code can be found at https://github.com/c4rtune/AILinkPreviewer.
- Abstract(参考訳): コードレビューは、開発者が品質と保守性を保証するためにコード変更を評価する、ソフトウェアエンジニアリングにおける重要なプラクティスである。
問題と外部リソースへのリンクは追加のコンテキストを提供するためにプルリクエスト(PR)に含まれることが多いが、PR要約やコードレビューコメント生成といった自動化されたタスクで破棄されるのが一般的である。
これにより、レビュアーに利用可能な情報の豊かさが制限され、コンテキストスイッチングを強制することで認知負荷が増大する。
このギャップに対処するため、我々は、大言語モデル(LLM)を活用して、タイトル、記述、コメント、リンクボディコンテンツを含むPRメタデータを使用して、PR内のリンクのプレビューを生成するツールであるAILINKPREVIEWERを提案する。
我々は50のエンジニアリングされたGitHubリポジトリを分析し、Contextual LLMサマリ、Non-Contextual LLMサマリ、Metadataベースのプレビューの3つのアプローチを比較した。
BLEU、BERTScore、圧縮比などの測定結果は、文脈的な要約が他の手法よりも一貫して優れていることを示している。
しかし,7人の参加者を対象にしたユーザスタディでは,非文脈要約が最も好まれており,測定性能とユーザビリティのトレードオフが示唆された。
これらの結果は,LLMを利用したリンクプレビューの可能性を示し,コードレビューの効率を高め,開発者のリッチなコンテキストとソフトウェアエンジニアリングの自動化を実現する。
ビデオデモはhttps://www.youtube.com/watch?
ツールとそのソースコードはhttps://github.com/c4rtune/AILinkPreviewer.v/h2qH4RtrB3Eにある。
関連論文リスト
- Uncovering Code Insights: Leveraging GitHub Artifacts for Deeper Code Understanding [0.1358202049520503]
大規模言語モデル(LLM)は、コード説明の生成において有望であることを示している。
GitHubの自然言語アーティファクトを活用する新しいアプローチを提案する。
私たちのシステムは3つのコンポーネントで構成されています。ひとつはGitHubコンテキストの抽出と構造、もうひとつはコード目的の高レベルな説明を生成するためにこのコンテキストを使用する、もうひとつは説明を検証する第3のコンポーネントです。
論文 参考訳(メタデータ) (2025-11-05T15:31:42Z) - Code Review Without Borders: Evaluating Synthetic vs. Real Data for Review Recommendation [37.86790434630698]
LLM(Large Language Models)は、十分なリソースを持つ言語からのコード変更を、未表現言語や新興言語の等価な変更に変換するために用いられる。
実ラベル付きデータで訓練されたモデルと比較した。
このアプローチは、自動コードレビュー機能を急速に進化するテクノロジスタックに拡張するためのスケーラブルなパスを提供する。
論文 参考訳(メタデータ) (2025-09-05T05:17:14Z) - Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - Code Summarization Beyond Function Level [0.213063058314067]
本研究では,関数レベルを超えたコード要約モデルの有効性について検討した。
微調整された最先端のCodeT5+ベースモデルは、コード要約に優れていた。
リポジトリレベルの要約は有望なポテンシャルを示したが、かなりの計算資源を必要とした。
論文 参考訳(メタデータ) (2025-02-23T20:31:21Z) - Automating Patch Set Generation from Code Review Comments Using Large Language Models [2.045040820541428]
5つの人気のあるLarge Language Model(LLM)にコードコンテキストを提供します。
実世界のコードレビューコメントから提案したコード変更(パッチセット)を得る。
生成したパッチセットを人為的なパッチセットの履歴データと比較することにより、各モデルの性能を慎重に評価する。
論文 参考訳(メタデータ) (2024-04-10T02:46:08Z) - Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。