論文の概要: A Transformer-based Approach for Augmenting Software Engineering Chatbots Datasets
- arxiv url: http://arxiv.org/abs/2407.11955v1
- Date: Tue, 16 Jul 2024 17:48:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 13:43:56.101959
- Title: A Transformer-based Approach for Augmenting Software Engineering Chatbots Datasets
- Title(参考訳): トランスフォーマーによるソフトウェアエンジニアリングチャットボットデータセットの拡張
- Authors: Ahmad Abdellatif, Khaled Badran, Diego Elias Costa, Emad Shihab,
- Abstract要約: ソフトウェアエンジニアリングデータセットを拡張するための自動トランスフォーマーベースのアプローチを提案する。
3つのソフトウェアエンジニアリングデータセットを用いて,拡張アプローチがRasa NLUの性能に与える影響を評価する。
- 参考スコア(独自算出の注目度): 4.311626046942916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: The adoption of chatbots into software development tasks has become increasingly popular among practitioners, driven by the advantages of cost reduction and acceleration of the software development process. Chatbots understand users' queries through the Natural Language Understanding component (NLU). To yield reasonable performance, NLUs have to be trained with extensive, high-quality datasets, that express a multitude of ways users may interact with chatbots. However, previous studies show that creating a high-quality training dataset for software engineering chatbots is expensive in terms of both resources and time. Aims: Therefore, in this paper, we present an automated transformer-based approach to augment software engineering chatbot datasets. Method: Our approach combines traditional natural language processing techniques with the BART transformer to augment a dataset by generating queries through synonym replacement and paraphrasing. We evaluate the impact of using the augmentation approach on the Rasa NLU's performance using three software engineering datasets. Results: Overall, the augmentation approach shows promising results in improving the Rasa's performance, augmenting queries with varying sentence structures while preserving their original semantics. Furthermore, it increases Rasa's confidence in its intent classification for the correctly classified intents. Conclusions: We believe that our study helps practitioners improve the performance of their chatbots and guides future research to propose augmentation techniques for SE chatbots.
- Abstract(参考訳): 背景: ソフトウェア開発タスクへのチャットボットの導入は、ソフトウェア開発プロセスのコスト削減と加速の利点によって、実践者の間でますます人気を集めています。
チャットボットは自然言語理解コンポーネント(Natural Language Understanding component, NLU)を通じてユーザのクエリを理解する。
適切なパフォーマンスを得るためには、NLUには広範囲で高品質なデータセットをトレーニングする必要がある。
しかし、以前の研究では、ソフトウェアエンジニアリングチャットボットのための高品質なトレーニングデータセットの作成は、リソースと時間の両方の観点からコストがかかることが示されている。
Aims: 本論文では,ソフトウェアエンジニアリングチャットボットデータセットの強化に対して,自動トランスフォーマーベースのアプローチを提案する。
方法:本手法は,従来の自然言語処理技術とBART変換器を組み合わせることで,同義語置換とパラフレージングによるクエリ生成により,データセットを増強する。
3つのソフトウェアエンジニアリングデータセットを用いて,拡張アプローチがRasa NLUの性能に与える影響を評価する。
結果: 全体として, 拡張アプローチはRasaの性能向上に有望な結果を示し, 元のセマンティクスを保ちながら, 様々な文構造を持つクエリを増強する。
さらに、正しく分類された意図に対する意図分類に対するラサの信頼を高める。
結論: この研究は, 実践者がチャットボットの性能を向上させるのに役立ち, 今後の研究を指導し, SEチャットボットの強化技術を提案する。
関連論文リスト
- A Complete Survey on LLM-based AI Chatbots [46.18523139094807]
過去数十年間、データの増加を目撃し、データ収集、学習ベースのAI技術の基礎を築いた。
AIチャットボットと呼ばれる会話エージェントは、大きな言語モデル(LLM)をトレーニングし、ユーザのプロンプトに応じて新しいコンテンツ(知識)を生成するために、そのようなデータに大きく依存している。
本稿では,様々な分野におけるLLMベースのチャットボットの進化と展開に関する完全な調査を行う。
論文 参考訳(メタデータ) (2024-06-17T09:39:34Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Large language model-powered chatbots for internationalizing student support in higher education [0.0]
本研究は、GPT-3.5とGPT-4 Turboを高等教育に統合し、国際化とデジタルトランスフォーメーションを活用することを目的とする。
学生のエンゲージメント、情報アクセス、サポートを改善するために、LLM(Large Language Models)の設計、実装、および応用に力を注いでいる。
論文 参考訳(メタデータ) (2024-03-16T23:50:19Z) - Multi-Purpose NLP Chatbot : Design, Methodology & Conclusion [0.0]
本研究は,現在あるチャットボット技術環境を網羅的に分析するものである。
ユーザインタラクションと会話体験を改善するために強化学習戦略を利用する、非常に柔軟なシステムを提供する。
チャットボット技術の発展の複雑さと、これらの開発を推進してきた要因と、それらが様々な分野に及ぼした影響についても検討する。
論文 参考訳(メタデータ) (2023-10-13T09:47:24Z) - Beyond Traditional Teaching: The Potential of Large Language Models and
Chatbots in Graduate Engineering Education [0.0]
本稿では,大規模言語モデル(LLM)とチャットボットを大学院工学教育に統合する可能性について検討する。
コース資料から質問バンクを作成し、正確で洞察に富んだ回答を提供するボットの能力を評価する。
数学的な問題解決やコード解釈のためにWolfram Alphaのような強力なプラグインが、ボットの機能を大幅に拡張できることを示す。
論文 参考訳(メタデータ) (2023-09-09T13:37:22Z) - XDBERT: Distilling Visual Information to BERT from Cross-Modal Systems
to Improve Language Understanding [73.24847320536813]
本研究では,事前学習したマルチモーダル変換器から事前学習した言語エンコーダへの視覚情報の蒸留について検討する。
我々のフレームワークは,NLUの言語重み特性に適応するために学習目標を変更する一方で,視覚言語タスクにおけるクロスモーダルエンコーダの成功にインスパイアされている。
論文 参考訳(メタデータ) (2022-04-15T03:44:00Z) - Reshaping Robot Trajectories Using Natural Language Commands: A Study of
Multi-Modal Data Alignment Using Transformers [33.7939079214046]
我々は、人間とロボットのコラボレーションのための柔軟な言語ベースのインタフェースを提供する。
我々は、ユーザコマンドをエンコードする大規模言語モデルの分野における最近の進歩を生かしている。
言語コマンドによって修正されたロボット軌跡を含むデータセット上で、模倣学習を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-03-25T01:36:56Z) - On the validity of pre-trained transformers for natural language
processing in the software engineering domain [78.32146765053318]
ソフトウェア工学データを用いて訓練されたBERT変換器モデルと一般領域データに基づく変換器との比較を行った。
ソフトウェアエンジニアリングのコンテキストを理解するために必要なタスクに対しては,ソフトウェアエンジニアリングデータの事前学習が重要であることを示す。
論文 参考訳(メタデータ) (2021-09-10T08:46:31Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z) - Chatbot Interaction with Artificial Intelligence: Human Data
Augmentation with T5 and Language Transformer Ensemble for Text
Classification [2.492300648514128]
本稿では,タスク分類のための深層学習チャットボットの訓練へのアプローチとして,人工知能(CI-AI)フレームワークを提案する。
このインテリジェントシステムは、大量のトレーニングデータを生成するために、人工的なパラフレーズによって人為的なデータを増強する。
トレーニングデータをT5モデルで拡張すると,すべてのモデルが改善されることがわかった。
論文 参考訳(メタデータ) (2020-10-12T19:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。