論文の概要: Generative Pre-trained Transformer: A Comprehensive Review on Enabling
Technologies, Potential Applications, Emerging Challenges, and Future
Directions
- arxiv url: http://arxiv.org/abs/2305.10435v1
- Date: Thu, 11 May 2023 19:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 10:36:23.576020
- Title: Generative Pre-trained Transformer: A Comprehensive Review on Enabling
Technologies, Potential Applications, Emerging Challenges, and Future
Directions
- Title(参考訳): ジェネレーティブ事前学習トランス : 実現技術,潜在的な応用,新興課題,今後の方向性に関する包括的レビュー
- Authors: Gokul Yenduri, Ramalingam M, Chemmalar Selvi G, Supriya Y, Gautam
Srivastava, Praveen Kumar Reddy Maddikunta, Deepti Raj G, Rutvij H Jhaveri,
Prabadevi B, Weizheng Wang, Athanasios V. Vasilakos, and Thippa Reddy
Gadekallu
- Abstract要約: Generative Pre-trained Transformerモデルは、自然言語処理タスク用に設計されたディープニューラルネットワークであるTransformerアーキテクチャに基づいている。
ジェネレーティブプレトレーニングトランスフォーマーモデルは、研究者や工業コミュニティの間で大きな人気を集めている。
- 参考スコア(独自算出の注目度): 11.959434388955787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Generative Pre-trained Transformer models represent a notable
breakthrough in the domain of natural language processing, which is propelling
us toward the development of machines that can understand and communicate using
language in a manner that closely resembles that of humans. Generative
Pre-trained Transformer models are based on the transformer architecture, a
deep neural network designed for natural language processing tasks. Due to
their impressive performance on natural language processing tasks and ability
to effectively converse, Generative Pre-trained Transformer models have gained
significant popularity among researchers and industrial communities, making
them one of the most widely used and effective models in natural language
processing and related fields, which motivated to conduct this review. This
review provides a detailed overview of the Generative Pre-trained Transformer,
including its architecture, working process, training procedures, enabling
technologies, and its impact on various applications. In this review, we also
explored the potential challenges and limitations of a Generative Pre-trained
Transformer. Furthermore, we discuss potential solutions and future directions.
Overall, this paper aims to provide a comprehensive understanding of Generative
Pre-trained Transformers, enabling technologies, their impact on various
applications, emerging challenges, and potential solutions.
- Abstract(参考訳): 生成事前学習型トランスフォーマーモデルは、自然言語処理の分野における画期的なブレークスルーであり、人間のものとよく似た方法で、言語を使って理解し、コミュニケーションできる機械の開発を推進している。
Generative Pre-trained Transformerモデルは、自然言語処理タスク用に設計されたディープニューラルネットワークであるTransformerアーキテクチャに基づいている。
自然言語処理タスクにおける印象的なパフォーマンスと効果的な会話能力により、生成事前学習トランスフォーマーモデルは研究者や産業コミュニティの間で大きな人気を集めており、自然言語処理や関連分野において最も広く使われている効果的なモデルの一つとなっている。
本レビューでは,そのアーキテクチャ,作業プロセス,訓練手順,実現技術,各種アプリケーションへの影響など,生成的事前学習トランスの詳細な概要について述べる。
本総説では, 生成予習変圧器の潜在的な課題と限界についても検討した。
さらに,潜在的な解決策と今後の方向性についても論じる。
本稿では, 汎用事前学習トランスフォーマーの包括的理解, 技術, 様々なアプリケーションへの影響, 新たな課題, 潜在的なソリューションの提供を目的とする。
関連論文リスト
- A Survey on Large Language Models from Concept to Implementation [4.219910716090213]
近年のLarge Language Models (LLM) の進歩により、自然言語処理(NLP)アプリケーションの範囲が拡大している。
本稿では,これらのモデルの多面的応用について検討し,GPTシリーズに着目した。
この調査は、コーディングや問題解決といった従来のタスクに革命をもたらす人工知能(AI)駆動ツールの変革的な影響に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-27T19:35:41Z) - From Generative AI to Generative Internet of Things: Fundamentals,
Framework, and Outlooks [82.964958051535]
生成人工知能(GAI)は、現実的なデータを生成し、高度な意思決定を促進する能力を持っている。
GAIを現代のモノのインターネット(IoT)に統合することによって、ジェネレーティブ・インターネット・オブ・モノ(GIoT)が登場し、社会の様々な側面に革命をもたらす大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-10-27T02:58:11Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Prompt Engineering for Healthcare: Methodologies and Applications [93.63832575498844]
本総説では,医学分野の自然言語処理分野における情報工学の最近の進歩を紹介する。
我々は、迅速なエンジニアリングの開発を提供し、その医療自然言語処理アプリケーションへの重要な貢献を強調します。
論文 参考訳(メタデータ) (2023-04-28T08:03:42Z) - ChatGPT: Applications, Opportunities, and Threats [0.0]
ChatGPTは、教師付き機械学習と強化学習技術を用いて微調整された人工知能技術である。
このシステムは、事前学習されたディープラーニングモデルのパワーとプログラマビリティレイヤを組み合わせることで、自然言語会話を生成する強力な基盤を提供する。
自然に聞こえる応答を生成する能力は例外的であるが、著者らはChatGPTが人間と同じレベルの理解、共感、創造性を持っていないと考えている。
論文 参考訳(メタデータ) (2023-04-14T16:25:03Z) - ChatGPT Beyond English: Towards a Comprehensive Evaluation of Large
Language Models in Multilingual Learning [70.57126720079971]
大規模言語モデル(LLM)は、自然言語処理(NLP)において最も重要なブレークスルーとして登場した。
本稿では,高,中,低,低リソースの37言語を対象として,ChatGPTを7つのタスクで評価する。
従来のモデルと比較すると,様々なNLPタスクや言語に対するChatGPTの性能は低下していた。
論文 参考訳(メタデータ) (2023-04-12T05:08:52Z) - Geotechnical Parrot Tales (GPT): Harnessing Large Language Models in
geotechnical engineering [2.132096006921048]
GPTモデルは可聴音を生成できるが、偽の出力を生成でき、幻覚を引き起こす。
GPTをジオエンジニアリングに統合することで、プロフェッショナルは作業を合理化し、持続的で回復力のあるインフラシステムを開発することができる。
論文 参考訳(メタデータ) (2023-04-04T21:47:41Z) - Unlocking the Potential of ChatGPT: A Comprehensive Exploration of its Applications, Advantages, Limitations, and Future Directions in Natural Language Processing [4.13365552362244]
ChatGPTはチャットボット、コンテンツ生成、言語翻訳、パーソナライズされたレコメンデーション、医療診断や治療など、多くの分野でうまく適用されてきた。
これらの応用におけるその成功は、人間のような応答を生成し、自然言語を理解し、異なる文脈に適応する能力に起因している。
この記事では、ChatGPTとその応用、利点、限界について概観する。
論文 参考訳(メタデータ) (2023-03-27T21:27:58Z) - A Survey of Controllable Text Generation using Transformer-based
Pre-trained Language Models [21.124096884958337]
制御可能なテキスト生成(CTG)は、自然言語生成(NLG)分野における新興分野である
本稿では,この領域における共通課題,主なアプローチ,評価手法について,体系的な批判的レビューを行う。
我々は、この分野が直面している課題について議論し、様々な将来的な方向性を示した。
論文 参考訳(メタデータ) (2022-01-14T08:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。