論文の概要: GIRT-Model: Automated Generation of Issue Report Templates
- arxiv url: http://arxiv.org/abs/2402.02632v2
- Date: Thu, 8 Feb 2024 14:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 11:26:00.938991
- Title: GIRT-Model: Automated Generation of Issue Report Templates
- Title(参考訳): GIRT-Model:イシューレポートテンプレートの自動生成
- Authors: Nafiseh Nikeghbal, Amir Hossein Kargaran, Abbas Heydarnoori
- Abstract要約: 我々は、開発者の指示に基づいてIRTを自動的に生成するアシスタント言語モデルであるGIRT-Modelを紹介する。
我々は、GIRT-Instructを使って、GIRT-Modelを作成するために、T5ベースモデルをインストラクション-チューニングします。
GIRT-Modelは、ROUGE、BLEU、METEOR、人的評価において、極めて高いスコアを達成し、IRT世代における一般的な言語モデルより優れている。
- 参考スコア(独自算出の注目度): 1.1551863731357468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Platforms such as GitHub and GitLab introduce Issue Report Templates (IRTs)
to enable more effective issue management and better alignment with developer
expectations. However, these templates are not widely adopted in most
repositories, and there is currently no tool available to aid developers in
generating them. In this work, we introduce GIRT-Model, an assistant language
model that automatically generates IRTs based on the developer's instructions
regarding the structure and necessary fields. We create GIRT-Instruct, a
dataset comprising pairs of instructions and IRTs, with the IRTs sourced from
GitHub repositories. We use GIRT-Instruct to instruction-tune a T5-base model
to create the GIRT-Model. In our experiments, GIRT-Model outperforms general
language models (T5 and Flan-T5 with different parameter sizes) in IRT
generation by achieving significantly higher scores in ROUGE, BLEU, METEOR, and
human evaluation. Additionally, we analyze the effectiveness of GIRT-Model in a
user study in which participants wrote short IRTs with GIRT-Model. Our results
show that the participants find GIRT-Model useful in the automated generation
of templates. We hope that through the use of GIRT-Model, we can encourage more
developers to adopt IRTs in their repositories. We publicly release our code,
dataset, and model at https://github.com/ISE-Research/girt-model.
- Abstract(参考訳): GitHubやGitLabのようなプラットフォームはイシューレポートテンプレート(IRT)を導入し、より効果的なイシュー管理と開発者の期待との整合性を高める。
しかし、これらのテンプレートは殆どのリポジトリでは広く採用されておらず、現在、開発者がそれらを生成するのを助けるツールが存在しない。
本稿では,GIRT-Modelを紹介する。GIRT-Modelは,その構造と必要なフィールドに関する開発者の指示に基づいて,IRTを自動的に生成するアシスタント言語モデルである。
GIRT-Instructは、インストラクションとIRTのペアからなるデータセットで、IRTはGitHubリポジトリからソースされています。
girt-instruct を使って t5-base モデルを命令調整して girt-model を作成する。
実験では,irt生成における一般的な言語モデル(t5,flan-t5のパラメータサイズが異なる)よりも,ルージュ,ブルー,流星,ヒトの評価において有意に高いスコアを得られる。
さらに、参加者が短いIRTをGIRT-Modelで作成するユーザスタディにおいて、GIRT-Modelの有効性を分析する。
その結果,girt-modelはテンプレートの自動生成に有用であることが判明した。
girt-modelを使用することで、より多くの開発者がirtsをリポジトリに採用できることを願っています。
コード、データセット、モデルをhttps://github.com/ISE-Research/girt-modelで公開しています。
関連論文リスト
- RNR: Teaching Large Language Models to Follow Roles and Rules [153.6596303205894]
既存のIFT命令から多様な役割やルールを生成する自動データ生成パイプラインであるモデルを提案する。
このデータは、複雑なシステムプロンプトに従うモデルをトレーニングするために使用することができる。
我々のフレームワークは、大規模言語モデルにおける役割と規則に従う能力を大幅に改善します。
論文 参考訳(メタデータ) (2024-09-10T06:07:32Z) - Visual Delta Generator with Large Multi-modal Models for Semi-supervised Composed Image Retrieval [50.72924579220149]
Composed Image Retrieval (CIR)は、提供されるテキスト修正に基づいて、クエリに似たイメージを取得するタスクである。
現在の技術は、基準画像、テキスト、ターゲット画像のラベル付き三重項を用いたCIRモデルの教師あり学習に依存している。
本稿では,参照とその関連対象画像を補助データとして検索する半教師付きCIR手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T21:00:22Z) - Foundational GPT Model for MEG [3.524869467682149]
本研究では,脳信号の予測を用いて学習可能な2種類のディープラーニング基礎モデルを提案する。
まず、改良されたWavenetを検討し、次に、改良されたTransformer-based (GPT2)モデルを検討する。
我々は,これらのディープラーニングモデルの性能を,MEGデータに基づく標準的な線形自己回帰(AR)モデルと比較する。
論文 参考訳(メタデータ) (2024-04-14T13:48:24Z) - A Review of Modern Recommender Systems Using Generative Models (Gen-RecSys) [57.30228361181045]
この調査は、ジェネレーティブモデル(Gen-RecSys)を用いたレコメンデーションシステムにおける重要な進歩を結びつける。
対話駆動生成モデル、自然言語レコメンデーションのための大規模言語モデル(LLM)とテキストデータの使用、RSにおける画像やビデオの生成と処理のためのマルチモーダルモデルの統合。
我々の研究は、Gen-RecSysの影響と害を評価するために必要なパラダイムを強調し、オープンな課題を特定します。
論文 参考訳(メタデータ) (2024-03-31T06:57:57Z) - ModelGPT: Unleashing LLM's Capabilities for Tailored Model Generation [35.160964210941955]
本稿では,ユーザが提供するデータやタスク記述に適したAIモデルを決定・生成するフレームワークであるModelGPTを提案する。
ユーザの要求に応じて、ModelGPTは、以前のパラダイムよりも少なくとも270倍高速に、調整済みのモデルを提供することができる。
論文 参考訳(メタデータ) (2024-02-18T11:24:34Z) - Generative Representational Instruction Tuning [89.76840377003178]
GritLM 7B がMassive Text Embedding Benchmark (MTEB) に新たな技術状況を設定する
GritLM 8x7Bは、私たちが試したすべてのオープンな生成言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-02-15T12:12:19Z) - Automating Human Tutor-Style Programming Feedback: Leveraging GPT-4 Tutor Model for Hint Generation and GPT-3.5 Student Model for Hint Validation [25.317788211120362]
本稿では,人間の教師型プログラミングヒントの提供における生成型AIモデルの役割について検討する。
最近の研究は、様々なフィードバック生成シナリオのための最先端モデルのベンチマークを行っている。
我々はGPT4Hints-GPT3.5Valという新しい手法を開発し、生成AIモデルの限界を推し進める。
論文 参考訳(メタデータ) (2023-10-05T17:02:59Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - TGRMPT: A Head-Shoulder Aided Multi-Person Tracker and a New Large-Scale
Dataset for Tour-Guide Robot [5.644254133832402]
Tour-Guide Robot (TGR)は、周囲の人々をしっかりと追跡する必要がある。
既存のマルチオブジェクトトラッキング(MOT)やマルチパーソントラッキング(MPT)メソッドはTGRには適用できない。
約5.6時間の注釈付きビデオと450以上の長期トラジェクトリを含む,新しい大規模多人数追跡データセットであるTGRDBデータセットを提案する。
また,頭部と全身の情報を組み込んだ新しいMPTシステムであるTGRMPTについて述べる。
論文 参考訳(メタデータ) (2022-07-08T07:32:18Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - Goldilocks: Just-Right Tuning of BERT for Technology-Assisted Review [14.689883695115519]
technology-assisted review (tar) は、ハイリコール検索タスクにおける文書レビューのための反復的なアクティブラーニングである。
教師付きチューニングを備えたトランスフォーマーベースモデルは,多くのテキスト分類タスクにおいて有効性を向上させることが確認された。
アクティブな学習を始める前にタスクコレクションを微調整する正当性言語モデルが重要であることを示す。
論文 参考訳(メタデータ) (2021-05-03T17:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。