論文の概要: A Complete Survey on LLM-based AI Chatbots
- arxiv url: http://arxiv.org/abs/2406.16937v2
- Date: Mon, 18 Nov 2024 12:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:31:08.495656
- Title: A Complete Survey on LLM-based AI Chatbots
- Title(参考訳): LLMベースのAIチャットボットに関する完全な調査
- Authors: Sumit Kumar Dam, Choong Seon Hong, Yu Qiao, Chaoning Zhang,
- Abstract要約: 過去数十年間、データの増加を目撃し、データ収集、学習ベースのAI技術の基礎を築いた。
AIチャットボットと呼ばれる会話エージェントは、大きな言語モデル(LLM)をトレーニングし、ユーザのプロンプトに応じて新しいコンテンツ(知識)を生成するために、そのようなデータに大きく依存している。
本稿では,様々な分野におけるLLMベースのチャットボットの進化と展開に関する完全な調査を行う。
- 参考スコア(独自算出の注目度): 46.18523139094807
- License:
- Abstract: The past few decades have witnessed an upsurge in data, forming the foundation for data-hungry, learning-based AI technology. Conversational agents, often referred to as AI chatbots, rely heavily on such data to train large language models (LLMs) and generate new content (knowledge) in response to user prompts. With the advent of OpenAI's ChatGPT, LLM-based chatbots have set new standards in the AI community. This paper presents a complete survey of the evolution and deployment of LLM-based chatbots in various sectors. We first summarize the development of foundational chatbots, followed by the evolution of LLMs, and then provide an overview of LLM-based chatbots currently in use and those in the development phase. Recognizing AI chatbots as tools for generating new knowledge, we explore their diverse applications across various industries. We then discuss the open challenges, considering how the data used to train the LLMs and the misuse of the generated knowledge can cause several issues. Finally, we explore the future outlook to augment their efficiency and reliability in numerous applications. By addressing key milestones and the present-day context of LLM-based chatbots, our survey invites readers to delve deeper into this realm, reflecting on how their next generation will reshape conversational AI.
- Abstract(参考訳): 過去数十年間、データの増加を目撃し、データ収集、学習ベースのAI技術の基礎を築いた。
AIチャットボットと呼ばれる会話エージェントは、大きな言語モデル(LLM)をトレーニングし、ユーザのプロンプトに応じて新しいコンテンツ(知識)を生成するために、そのようなデータに大きく依存している。
OpenAIのChatGPTの出現により、LLMベースのチャットボットはAIコミュニティに新たな標準を設定した。
本稿では,様々な分野におけるLLMベースのチャットボットの進化と展開に関する完全な調査を行う。
まず,LLMの進化に続き,現在使用されているLLMベースのチャットボットと開発段階にあるチャットボットについて概説する。
AIチャットボットを新しい知識を生み出すツールとして認識し、さまざまな産業にまたがる様々な応用を探求する。
次に、LLMのトレーニングに使用されるデータと、生成された知識の誤用が、いくつかの問題を引き起こす可能性があることを考慮し、オープンな課題について議論する。
最後に、多数のアプリケーションにおいて、その効率性と信頼性を高めるための将来の展望について検討する。
重要なマイルストーンと、LLMベースのチャットボットの現在の状況に対処することによって、私たちの調査では、次世代の会話型AIをどのように作り直すのかを反映して、読者にこの領域を深く掘り下げるよう求めています。
関連論文リスト
- Distinguishing Chatbot from Human [1.1249583407496218]
我々は,75万以上の人文文からなる新しいデータセットを開発した。
このデータセットに基づいて、テキストの起源を決定するために機械学習(ML)技術を適用する。
提案手法は高い分類精度を提供し,テキスト解析に有用なツールである。
論文 参考訳(メタデータ) (2024-08-03T13:18:04Z) - A Transformer-based Approach for Augmenting Software Engineering Chatbots Datasets [4.311626046942916]
ソフトウェアエンジニアリングデータセットを拡張するための自動トランスフォーマーベースのアプローチを提案する。
3つのソフトウェアエンジニアリングデータセットを用いて,拡張アプローチがRasa NLUの性能に与える影響を評価する。
論文 参考訳(メタデータ) (2024-07-16T17:48:44Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - History of generative Artificial Intelligence (AI) chatbots: past,
present, and future development [1.6019538204169677]
この研究は、ChatGPTやGoogle Bardといった、今日の高度な会話エージェントに繋がる重要なイノベーションをトレースする。
この論文は、自然言語処理と機械学習が、より高度な機能のために現代のチャットボットにどのように統合されたかを強調している。
論文 参考訳(メタデータ) (2024-02-04T05:01:38Z) - Holistic Autonomous Driving Understanding by Bird's-Eye-View Injected
Multi-Modal Large Models [76.99140362751787]
我々は17のサブタスクで91Kのマルチビュービデオ-QAペアを持つ新しいデータセットであるNuInstructを提案する。
また,BirdのEye-View特徴を効率的に抽出するエンドツーエンド手法であるBEV-InMLLMを提案する。
論文 参考訳(メタデータ) (2024-01-02T01:54:22Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - A Self-enhancement Approach for Domain-specific Chatbot Training via
Knowledge Mining and Digest [62.63606958140248]
大規模言語モデル(LLM)は、特定のドメインで複雑な知識要求クエリを扱う際に、しばしば困難に直面する。
本稿では、ドメイン固有のテキストソースから関連知識を効果的に抽出し、LLMを強化する新しいアプローチを提案する。
我々は知識マイナー、すなわちLLMinerを訓練し、関連する文書から質問応答対を自律的に抽出する。
論文 参考訳(メタデータ) (2023-11-17T16:09:10Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。