論文の概要: GPTs are GPTs: An Early Look at the Labor Market Impact Potential of
Large Language Models
- arxiv url: http://arxiv.org/abs/2303.10130v2
- Date: Mon, 20 Mar 2023 02:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 11:22:55.909023
- Title: GPTs are GPTs: An Early Look at the Labor Market Impact Potential of
Large Language Models
- Title(参考訳): GPTはGPTである:大規模言語モデルの労働市場影響の早期調査
- Authors: Tyna Eloundou, Sam Manning, Pamela Mishkin, Daniel Rock
- Abstract要約: ジェネレーティブ・プレトレーニング・トランスフォーマー(GPT)は、経済的、社会的、政策的な意味を持つ可能性がある。
アメリカの労働力の約80%は、GPTの導入によって影響を受ける仕事の少なくとも10%を担っていた。
- 参考スコア(独自算出の注目度): 0.40964539027092917
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We investigate the potential implications of Generative Pre-trained
Transformer (GPT) models and related technologies on the U.S. labor market.
Using a new rubric, we assess occupations based on their correspondence with
GPT capabilities, incorporating both human expertise and classifications from
GPT-4. Our findings indicate that approximately 80% of the U.S. workforce could
have at least 10% of their work tasks affected by the introduction of GPTs,
while around 19% of workers may see at least 50% of their tasks impacted. The
influence spans all wage levels, with higher-income jobs potentially facing
greater exposure. Notably, the impact is not limited to industries with higher
recent productivity growth. We conclude that Generative Pre-trained
Transformers exhibit characteristics of general-purpose technologies (GPTs),
suggesting that as these models could have notable economic, social, and policy
implications.
- Abstract(参考訳): 本稿では,米国労働市場におけるGPTモデルとその関連技術の可能性について検討する。
新たなルーブリックを用いて,GPT-4の専門知識と分類の両面を取り入れ,GPT機能との対応に基づく職業評価を行った。
その結果、米国の労働力の約80%は、GPTの導入によって影響を受ける仕事の少なくとも10%を、労働者の約19%は、その仕事の少なくとも50%が影響を受けていることがわかった。
この影響は全ての賃金水準に及んでおり、高所得の雇用はより大きな露出に直面する可能性がある。
特にこの影響は、最近の生産性が向上している業界に限ったものではない。
我々は,ジェネレーティブ・プレトレーニングトランスが汎用技術(gpts)の特徴を示し,これらのモデルが経済的,社会的,政策的な意味を持つ可能性を示唆する。
関連論文リスト
- Multilingual Machine Translation with Large Language Models: Empirical
Results and Analysis [57.101216646004666]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
我々は102言語でXGLM, OPT, BLOOMZ, ChatGPTなどの人気のあるLLMを評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z) - LLM-Adapters: An Adapter Family for Parameter-Efficient Fine-Tuning of
Large Language Models [50.29148416769957]
本稿では,様々なアダプタを大規模言語モデル(LLM)に統合する,使い易いフレームワークを提案する。
このフレームワークには、LLaMA、BLOOM、OPT、GPT-Jといった最先端のオープンアクセスLLMや、シリーズアダプタ、パラレルアダプタ、LoRAといった広く使われているアダプタが含まれている。
LLMs-Adaptersにおけるアダプタの有効性を評価するため、6つの数学推論データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-04T16:31:37Z) - Eight Things to Know about Large Language Models [27.43177368607849]
大規模言語モデル(LLM)の広く普及した公開デプロイメントは、新たな注目とエンゲージメントの波を引き起こしている。
本論文は, 潜在的に驚くべき8点の証拠を調査する。
論文 参考訳(メタデータ) (2023-04-02T20:03:27Z) - Large Language Model Is Not a Good Few-shot Information Extractor, but a
Good Reranker for Hard Samples! [24.87862935808854]
本稿では,Large Language Models (LLMs) は,一般的には実効的な少数ショット情報抽出器ではないことを示す。
本稿では,SLMがフィルタとして機能し,LLMがリランカとして機能する適応型フィルタ-then-rerankパラダイムを提案する。
論文 参考訳(メタデータ) (2023-03-15T12:20:13Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Event knowledge in large language models: the gap between the impossible
and the unlikely [52.69080477699425]
計算言語学者はこの事実を利用して、言語コーパスから共起に基づく知識を取得する大きな言語モデル(LLM)を構築している。
LLMは現実世界の出来事に関する一般的な知識を獲得しますか?
LLMは可能な事象と不可能事象を体系的に区別するが、起こりうる事象とありそうもない事象を区別する際には人間のパフォーマンスに欠けることがわかった。
論文 参考訳(メタデータ) (2022-12-02T23:43:18Z) - Privately Fine-Tuning Large Language Models with Differential Privacy [10.485556506301549]
事前訓練された大規模言語モデル(LLM)は、複雑なAIタスクにおいてブレークスルーパフォーマンスをもたらす現代のAIの不可欠な部分である。
差分プライバシー(DP)は、トレーニングや微調整 LLM のプロセスにノイズを加えることができる厳格なフレームワークを提供する。
We present ewtune, a DP framework for fine-tuning LLMs based on Edgeworth accountant with finite-sample privacy guarantees。
論文 参考訳(メタデータ) (2022-10-26T21:18:31Z) - ElitePLM: An Empirical Study on General Language Ability Evaluation of
Pretrained Language Models [78.08792285698853]
本稿では,事前学習型言語モデル(ElitePLM)の汎用言語能力評価に関する大規模実証的研究について述べる。
実験の結果,(1)訓練対象の異なるPLMは異なる能力試験に適しており,(2)下流タスクの微調整PLMはデータサイズや分布に敏感であり,(3)PLMは類似タスク間の転送性に優れていた。
論文 参考訳(メタデータ) (2022-05-03T14:18:10Z) - Knowledge Inheritance for Pre-trained Language Models [57.51305807391381]
我々は「知識継承(KI)」という新しい事前学習フレームワークを導入する。
KIは、自己学習と教師指導の両方を組み合わせて、より大きなPLMを効率的に訓練する。
KIは生涯学習と知識伝達を十分に支援できることを示す。
論文 参考訳(メタデータ) (2021-05-28T14:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。