論文の概要: Generative Pre-trained Transformer: A Comprehensive Review on Enabling
Technologies, Potential Applications, Emerging Challenges, and Future
Directions
- arxiv url: http://arxiv.org/abs/2305.10435v2
- Date: Sun, 21 May 2023 10:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 02:14:41.725889
- Title: Generative Pre-trained Transformer: A Comprehensive Review on Enabling
Technologies, Potential Applications, Emerging Challenges, and Future
Directions
- Title(参考訳): ジェネレーティブ事前学習トランス : 実現技術,潜在的な応用,新興課題,今後の方向性に関する包括的レビュー
- Authors: Gokul Yenduri, Ramalingam M, Chemmalar Selvi G, Supriya Y, Gautam
Srivastava, Praveen Kumar Reddy Maddikunta, Deepti Raj G, Rutvij H Jhaveri,
Prabadevi B, Weizheng Wang, Athanasios V. Vasilakos, and Thippa Reddy
Gadekallu
- Abstract要約: Generative Pre-trained Transformer (GPT)は、自然言語処理の分野における顕著なブレークスルーである。
GPTは自然言語処理タスク用に設計されたディープニューラルネットワークであるTransformerアーキテクチャに基づいている。
- 参考スコア(独自算出の注目度): 11.959434388955787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Generative Pre-trained Transformer (GPT) represents a notable
breakthrough in the domain of natural language processing, which is propelling
us toward the development of machines that can understand and communicate using
language in a manner that closely resembles that of humans. GPT is based on the
transformer architecture, a deep neural network designed for natural language
processing tasks. Due to their impressive performance on natural language
processing tasks and ability to effectively converse, GPT have gained
significant popularity among researchers and industrial communities, making
them one of the most widely used and effective models in natural language
processing and related fields, which motivated to conduct this review. This
review provides a detailed overview of the GPT, including its architecture,
working process, training procedures, enabling technologies, and its impact on
various applications. In this review, we also explored the potential challenges
and limitations of a GPT. Furthermore, we discuss potential solutions and
future directions. Overall, this paper aims to provide a comprehensive
understanding of GPT, enabling technologies, their impact on various
applications, emerging challenges, and potential solutions.
- Abstract(参考訳): GPT(Generative Pre-trained Transformer)は、自然言語処理の分野における画期的なブレークスルーであり、人間のものとよく似た方法で、言語を使って理解し、コミュニケーションできる機械の開発を推進している。
GPTは自然言語処理タスク用に設計されたディープニューラルネットワークであるTransformerアーキテクチャに基づいている。
自然言語処理タスクにおける印象的な性能と効果的な会話能力により、gptは研究者や産業コミュニティの間で大きな人気を得ており、自然言語処理や関連分野において最も広く使われ、効果的なモデルの一つとなっている。
本稿では,GPTのアーキテクチャ,作業プロセス,トレーニング手順,技術の実現,さまざまなアプリケーションへの影響などについて概説する。
本稿では,GPTの潜在的な課題と限界についても検討した。
さらに,潜在的な解決策と今後の方向性についても論じる。
本稿では,GPTの包括的理解,技術,様々なアプリケーションへの影響,新たな課題,潜在的なソリューションの提供を目的としている。
関連論文リスト
- A Survey on Large Language Models from Concept to Implementation [4.219910716090213]
近年のLarge Language Models (LLM) の進歩により、自然言語処理(NLP)アプリケーションの範囲が拡大している。
本稿では,これらのモデルの多面的応用について検討し,GPTシリーズに着目した。
この調査は、コーディングや問題解決といった従来のタスクに革命をもたらす人工知能(AI)駆動ツールの変革的な影響に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-27T19:35:41Z) - From Generative AI to Generative Internet of Things: Fundamentals,
Framework, and Outlooks [82.964958051535]
生成人工知能(GAI)は、現実的なデータを生成し、高度な意思決定を促進する能力を持っている。
GAIを現代のモノのインターネット(IoT)に統合することによって、ジェネレーティブ・インターネット・オブ・モノ(GIoT)が登場し、社会の様々な側面に革命をもたらす大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-10-27T02:58:11Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Prompt Engineering for Healthcare: Methodologies and Applications [93.63832575498844]
本総説では,医学分野の自然言語処理分野における情報工学の最近の進歩を紹介する。
我々は、迅速なエンジニアリングの開発を提供し、その医療自然言語処理アプリケーションへの重要な貢献を強調します。
論文 参考訳(メタデータ) (2023-04-28T08:03:42Z) - ChatGPT: Applications, Opportunities, and Threats [0.0]
ChatGPTは、教師付き機械学習と強化学習技術を用いて微調整された人工知能技術である。
このシステムは、事前学習されたディープラーニングモデルのパワーとプログラマビリティレイヤを組み合わせることで、自然言語会話を生成する強力な基盤を提供する。
自然に聞こえる応答を生成する能力は例外的であるが、著者らはChatGPTが人間と同じレベルの理解、共感、創造性を持っていないと考えている。
論文 参考訳(メタデータ) (2023-04-14T16:25:03Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - Geotechnical Parrot Tales (GPT): Harnessing Large Language Models in
geotechnical engineering [2.132096006921048]
GPTモデルは可聴音を生成できるが、偽の出力を生成でき、幻覚を引き起こす。
GPTをジオエンジニアリングに統合することで、プロフェッショナルは作業を合理化し、持続的で回復力のあるインフラシステムを開発することができる。
論文 参考訳(メタデータ) (2023-04-04T21:47:41Z) - Unlocking the Potential of ChatGPT: A Comprehensive Exploration of its Applications, Advantages, Limitations, and Future Directions in Natural Language Processing [4.13365552362244]
ChatGPTはチャットボット、コンテンツ生成、言語翻訳、パーソナライズされたレコメンデーション、医療診断や治療など、多くの分野でうまく適用されてきた。
これらの応用におけるその成功は、人間のような応答を生成し、自然言語を理解し、異なる文脈に適応する能力に起因している。
この記事では、ChatGPTとその応用、利点、限界について概観する。
論文 参考訳(メタデータ) (2023-03-27T21:27:58Z) - A Survey of Controllable Text Generation using Transformer-based
Pre-trained Language Models [21.124096884958337]
制御可能なテキスト生成(CTG)は、自然言語生成(NLG)分野における新興分野である
本稿では,この領域における共通課題,主なアプローチ,評価手法について,体系的な批判的レビューを行う。
我々は、この分野が直面している課題について議論し、様々な将来的な方向性を示した。
論文 参考訳(メタデータ) (2022-01-14T08:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。