論文の概要: Understanding Emails and Drafting Responses -- An Approach Using GPT-3
- arxiv url: http://arxiv.org/abs/2102.03062v2
- Date: Tue, 9 Feb 2021 15:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 13:18:00.622148
- Title: Understanding Emails and Drafting Responses -- An Approach Using GPT-3
- Title(参考訳): 電子メールとラフティング応答の理解 -- GPT-3を用いたアプローチ
- Authors: Jonas Thiergart, Stefan Huber, Thomas \"Ubellacker
- Abstract要約: GPT-3を用いた電子メールコミュニケーションの合理化の可能性を検討する。
受信メールの理解と応答生成の技術的実現可能性を示す。
我々は、コストと市場需要を分析して、そのようなソリューションの経済性について論じる。
- 参考スコア(独自算出の注目度): 2.1485350418225244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing computer systems with the ability to understand and generate
natural language has long been a challenge of engineers. Recent progress in
natural language processing (NLP), like the GPT-3 language model released by
OpenAI, has made both possible to an extent. In this paper, we explore the
possibility of rationalising email communication using GPT-3. First, we
demonstrate the technical feasibility of understanding incoming emails and
generating responses, drawing on literature from the disciplines of software
engineering as well as data science. Second, we apply knowledge from both
business studies and, again, software engineering to identify ways to tackle
challenges we encountered. Third, we argue for the economic viability of such a
solution by analysing costs and market demand. We conclude that applying GPT-3
to rationalising email communication is feasible both technically and
economically.
- Abstract(参考訳): 自然言語を理解して生成する能力を持つコンピュータシステムを提供することは、長年、エンジニアの挑戦だった。
自然言語処理(NLP)の最近の進歩は、OpenAIがリリースしたGPT-3言語モデルのように、どちらもある程度可能になっている。
本稿では,GPT-3を用いた電子メール通信の合理化の可能性を検討する。
まず,ソフトウェア工学の分野とデータ科学の分野から文献を抽出し,受信メールの理解と応答生成の技術的実現可能性を示す。
第二に、ビジネススタディとソフトウェアエンジニアリングの両方から知識を適用して、直面した課題に取り組む方法を特定します。
第3に、コストと市場需要を分析して、そのようなソリューションの経済性について論じる。
メール通信の合理化にGPT-3を適用することは、技術的にも経済的にも実現可能であると結論づけます。
関連論文リスト
- Is English the New Programming Language? How About Pseudo-code Engineering? [0.0]
本研究では,OpenAIの指導的言語モデルであるChatGPTに異なる入力形式がどのような影響を及ぼすかを検討する。
それは、意図、解釈可能性、完全性、創造性の4つのカテゴリにまたがるモデルの習熟度を調べる。
論文 参考訳(メタデータ) (2024-04-08T16:28:52Z) - Genetic Auto-prompt Learning for Pre-trained Code Intelligence Language Models [54.58108387797138]
コードインテリジェンスタスクにおける即時学習の有効性について検討する。
既存の自動プロンプト設計手法は、コードインテリジェンスタスクに限られている。
本稿では、精巧な遺伝的アルゴリズムを用いてプロンプトを自動設計する遺伝的オートプロンプト(GenAP)を提案する。
論文 参考訳(メタデータ) (2024-03-20T13:37:00Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Towards AGI in Computer Vision: Lessons Learned from GPT and Large
Language Models [98.72986679502871]
大規模言語モデル(LLM)を利用したチャットシステムが出現し、人工知能(AGI)を実現するための有望な方向へと急速に成長する
しかし、コンピュータビジョン(CV)におけるAGIへの道のりは未だに不明である。
CVアルゴリズムを世界規模で対話可能な環境に配置し、その動作に関する将来のフレームを予測するための事前トレーニングを行い、さまざまなタスクをこなすための命令で微調整するパイプラインを想像する。
論文 参考訳(メタデータ) (2023-06-14T17:15:01Z) - Generative Pre-trained Transformer: A Comprehensive Review on Enabling
Technologies, Potential Applications, Emerging Challenges, and Future
Directions [11.959434388955787]
Generative Pre-trained Transformer (GPT)は、自然言語処理の分野における顕著なブレークスルーである。
GPTは自然言語処理タスク用に設計されたディープニューラルネットワークであるTransformerアーキテクチャに基づいている。
論文 参考訳(メタデータ) (2023-05-11T19:20:38Z) - Just Tell Me: Prompt Engineering in Business Process Management [63.08166397142146]
GPT-3や他の言語モデル(LM)は、様々な自然言語処理(NLP)タスクに効果的に対処できる。
私たちは、迅速なエンジニアリングは、BPM研究にLMの能力をもたらすことができると論じています。
論文 参考訳(メタデータ) (2023-04-14T14:55:19Z) - Geotechnical Parrot Tales (GPT): Harnessing Large Language Models in
geotechnical engineering [2.132096006921048]
GPTモデルは可聴音を生成できるが、偽の出力を生成でき、幻覚を引き起こす。
GPTをジオエンジニアリングに統合することで、プロフェッショナルは作業を合理化し、持続的で回復力のあるインフラシステムを開発することができる。
論文 参考訳(メタデータ) (2023-04-04T21:47:41Z) - a survey on GPT-3 [5.672898304129217]
本稿では, GPT-3 の紹介調査を行う。
我々は、この技術の背後にある歴史的発展のいくつか、GPT-3の重要な特徴を取り上げ、機械学習モデルと使用するデータセットについて論じる。
本稿では,GPT-3が直面する課題として,学習の複雑さ,バイアス,幻覚/誤答などについて議論する。
論文 参考訳(メタデータ) (2022-12-01T20:24:19Z) - Solving Quantitative Reasoning Problems with Language Models [53.53969870599973]
我々は、一般的な自然言語データに基づいて事前訓練された大規模言語モデルであるMinervaを紹介し、さらに技術的な内容について訓練する。
このモデルは、外部ツールを使わずに、技術的ベンチマークで最先端のパフォーマンスを達成する。
我々はまた、物理学、生物学、化学、経済学、その他の科学における200以上の学部レベルの問題に対して、我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-06-29T18:54:49Z) - CoAuthor: Designing a Human-AI Collaborative Writing Dataset for
Exploring Language Model Capabilities [92.79451009324268]
我々は,GPT-3の創造的かつ議論的な記述を支援する能力を明らかにするために設計されたデータセットであるCoAuthorを提案する。
我々は、CoAuthorがGPT-3の言語、アイデア、コラボレーション機能に関する問題に対処できることを実証した。
インタラクション設計に関して,この作業がLMの約束や落とし穴に関して,より原則化された議論を促進する可能性について論じる。
論文 参考訳(メタデータ) (2022-01-18T07:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。