論文の概要: On Unified Prompt Tuning for Request Quality Assurance in Public Code Review
- arxiv url: http://arxiv.org/abs/2404.07942v2
- Date: Wed, 17 Apr 2024 14:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 12:46:40.142974
- Title: On Unified Prompt Tuning for Request Quality Assurance in Public Code Review
- Title(参考訳): 公開コードレビューにおける要求品質保証のための統一型プロンプトチューニングについて
- Authors: Xinyu Chen, Lin Li, Rui Zhang, Peng Liang,
- Abstract要約: We propose a unified framework called UniPCR to complete developer-based request quality assurance (e., predicting request need and recommending tags subtask) under a Masked Language Model (MLM)。
2011-2022年までのPublic Code Reviewデータセットの実験結果は、我々のUniPCRフレームワークが2つのサブタスクに適応し、要求品質保証のための最先端の手法で同等の精度に基づく結果より優れていることを示している。
- 参考スコア(独自算出の注目度): 19.427661961488404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Public Code Review (PCR) can be implemented through a Software Question Answering (SQA) community, which facilitates high knowledge dissemination. Current methods mainly focus on the reviewer's perspective, including finding a capable reviewer, predicting comment quality, and recommending/generating review comments. Our intuition is that satisfying review necessity requests can increase their visibility, which in turn is a prerequisite for better review responses. To this end, we propose a unified framework called UniPCR to complete developer-based request quality assurance (i.e., predicting request necessity and recommending tags subtask) under a Masked Language Model (MLM). Specifically, we reformulate both subtasks via 1) text prompt tuning, which converts two subtasks into MLM by constructing prompt templates using hard prompt; 2) code prefix tuning, which optimizes a small segment of generated continuous vectors as the prefix of the code representation using soft prompt. Experimental results on the Public Code Review dataset for the time span 2011-2022 demonstrate that our UniPCR framework adapts to the two subtasks and outperforms comparable accuracy-based results with state-of-the-art methods for request quality assurance. These conclusions highlight the effectiveness of our unified framework from the developer's perspective in public code review.
- Abstract(参考訳): PCR(Public Code Review)は、高い知識の普及を促進するSoftware Question Answering (SQA)コミュニティを通じて実装することができる。
現在の手法は主に、有能なレビュアーを見つけること、コメントの品質を予測すること、レビューコメントを推奨/生成することなど、レビュアーの視点に焦点を当てている。
私たちの直感は、レビュー要求を満たすことで、その可視性が向上し、レビュー応答を改善するための前提条件になります。
この目的のために我々は,Masked Language Model (MLM) の下で,開発者ベースの要求品質保証(要求要求の予測とタグサブタスクの推奨)を補完する UniPCR と呼ばれる統一フレームワークを提案する。
具体的には 両方のサブタスクを
1) ハードプロンプトを使用してプロンプトテンプレートを構築することで、2つのサブタスクをMLMに変換するテキストプロンプトチューニング。
2) コードプレフィックスチューニング – 生成した連続ベクトルの小さなセグメントを,ソフトプロンプトを使ってコード表現のプレフィックスとして最適化する。
2011-2022年までのPublic Code Reviewデータセットの実験結果は、我々のUniPCRフレームワークが2つのサブタスクに適応し、要求品質保証のための最先端の手法で同等の精度に基づく結果より優れていることを示している。
これらの結論は、公開コードレビューにおける開発者の視点から、統合フレームワークの有効性を強調します。
関連論文リスト
- Knowledge-Guided Prompt Learning for Request Quality Assurance in Public Code Review [15.019556560416403]
Public Code Review(PCR)は、開発チームの内部コードレビューのアシスタントである。
本稿では,開発者によるコードレビュー要求品質保証を実現するために,公開コードレビューのための知識指導型プロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-10-29T02:48:41Z) - Trust but Verify: Programmatic VLM Evaluation in the Wild [62.14071929143684]
プログラム型VLM評価(Programmatic VLM Evaluation、PROVE)は、オープンなクエリに対するVLM応答を評価するための新しいベンチマークパラダイムである。
我々は,PROVE上でのVLMの有効性-実効性トレードオフをベンチマークした結果,両者のバランスが良好であることは極めて少ないことがわかった。
論文 参考訳(メタデータ) (2024-10-17T01:19:18Z) - Hierarchical Reinforcement Learning for Temporal Abstraction of Listwise Recommendation [51.06031200728449]
我々はmccHRLと呼ばれる新しいフレームワークを提案し、リストワイドレコメンデーションにおける時間的抽象化のレベルを異なるものにする。
階層的な枠組みの中では、ハイレベルエージェントがユーザ知覚の進化を研究し、低レベルエージェントがアイテム選択ポリシーを作成している。
その結果,本手法による性能改善は,いくつかのよく知られたベースラインと比較して有意な結果が得られた。
論文 参考訳(メタデータ) (2024-09-11T17:01:06Z) - MORCoRA: Multi-Objective Refactoring Recommendation Considering Review Availability [6.439206681270567]
検索されたシーケンスのシーケンスを迅速にレビューできることを保証することが不可欠である。
MORCoRAは,コード品質,セマンティック保存,高可用性の検索が可能な多目的検索手法である。
論文 参考訳(メタデータ) (2024-08-13T02:08:16Z) - Improving Subject-Driven Image Synthesis with Subject-Agnostic Guidance [62.15866177242207]
主観的条件を構築することにより、与えられた主観的条件と入力テキストプロンプトの両方に整合した出力が得られることを示す。
私たちのアプローチは概念的にはシンプルで、最小限のコード修正しか必要ありませんが、実質的な品質改善につながります。
論文 参考訳(メタデータ) (2024-05-02T15:03:41Z) - PCQA: A Strong Baseline for AIGC Quality Assessment Based on Prompt Condition [4.125007507808684]
本研究では,効果的なAIGC品質評価(QA)フレームワークを提案する。
まず,マルチソースCLIP(Contrastive Language- Image Pre-Training)テキストエンコーダを用いたハイブリッドプロンプト符号化手法を提案する。
第2に,適応したプロンプトと視覚機能を効果的にブレンドするアンサンブルベースの機能ミキサーモジュールを提案する。
論文 参考訳(メタデータ) (2024-04-20T07:05:45Z) - Code Reviewer Recommendation Based on a Hypergraph with Multiplex
Relationships [30.74556500021384]
多重関係を持つハイパーグラフを利用する新しいコードレビュアレコメンデーション手法であるMIRRecを提案する。
MIRRecは、プルリクエストと開発者の間で、学位なしのハイパーエッジを使用して、従来のペアワイズ接続を超える高次相関をエンコードする。
MIRRecの有効性を検証するために、GitHubにホストされている10の人気のあるオープンソースプロジェクトからの48,374のプルリクエストからなるデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-01-19T15:25:14Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。