論文の概要: Understanding the Capabilities, Limitations, and Societal Impact of
Large Language Models
- arxiv url: http://arxiv.org/abs/2102.02503v1
- Date: Thu, 4 Feb 2021 09:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:48:38.076477
- Title: Understanding the Capabilities, Limitations, and Societal Impact of
Large Language Models
- Title(参考訳): 大規模言語モデルの能力・限界・社会的影響を理解する
- Authors: Alex Tamkin, Miles Brundage, Jack Clark, Deep Ganguli
- Abstract要約: GPT-3は当時最も広く公表された高密度言語モデルであった。
論争はコンピュータ科学、言語学、哲学、政治科学、コミュニケーション、サイバー政策など様々な研究の背景から生まれた。
ここでは、上記の2つのテーマによって構成された議論の概要を紹介する。
- 参考スコア(独自算出の注目度): 4.828761458451239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On October 14th, 2020, researchers from OpenAI, the Stanford Institute for
Human-Centered Artificial Intelligence, and other universities convened to
discuss open research questions surrounding GPT-3, the largest
publicly-disclosed dense language model at the time. The meeting took place
under Chatham House Rules. Discussants came from a variety of research
backgrounds including computer science, linguistics, philosophy, political
science, communications, cyber policy, and more. Broadly, the discussion
centered around two main questions: 1) What are the technical capabilities and
limitations of large language models? 2) What are the societal effects of
widespread use of large language models? Here, we provide a detailed summary of
the discussion organized by the two themes above.
- Abstract(参考訳): 2020年10月14日、openai、stanford institute for human-centered artificial intelligence、および他の大学の研究者たちが、当時最大の公開密集型言語モデルであるgpt-3に関するオープンリサーチに関する議論に集まった。
会議はチャタム・ハウス・ルールズの下で開催された。
議論者は、コンピュータ科学、言語学、哲学、政治科学、コミュニケーション、サイバー政策など、様々な研究の背景から来ていた。
1) 大規模言語モデルの技術的能力と制限は何ですか?
2)大規模言語モデルの普及による社会的影響はどのようなものか?
ここでは、上記の2つのテーマで構成した議論の詳細な概要を説明します。
関連論文リスト
- WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - A Philosophical Introduction to Language Models -- Part I: Continuity
With Classic Debates [0.05657375260432172]
この記事では、哲学者の言語モデルに関するプライマーとしての役割と、その重要性に関する世論調査としての役割について述べる。
言語モデルの成功は、人工ニューラルネットワークに関する長年の仮定に挑戦するものだ、と我々は主張する。
これは、共用紙(Part II)のステージを設定し、言語モデルの内部動作を探索するための新しい経験的手法に転換する。
論文 参考訳(メタデータ) (2024-01-08T14:12:31Z) - Language Models: A Guide for the Perplexed [51.88841610098437]
このチュートリアルは、言語モデルを学ぶ人と、興味を持ち、もっと学びたいと思う人とのギャップを狭めることを目的としています。
実験を通して学ぶことができる質問に焦点を当てた科学的視点を提供する。
言語モデルは、現在、その開発に繋がる研究の文脈に置かれています。
論文 参考訳(メタデータ) (2023-11-29T01:19:02Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - ChatGPT and a New Academic Reality: Artificial Intelligence-Written
Research Papers and the Ethics of the Large Language Models in Scholarly
Publishing [6.109522330180625]
ChatGPTは、テキストベースのユーザ要求を満たすために自然言語処理を使用する生成事前学習トランスフォーマーである。
GPT-3のような大規模言語モデルの出現に伴う潜在的な倫理的問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:35:07Z) - Commonsense Reasoning for Conversational AI: A Survey of the State of
the Art [0.76146285961466]
論文では、関連するトレーニングデータセットをリストアップし、会話型AIにコモンセンスを含めるための主要なアプローチについて説明する。
本稿では,BlenderBot3とLaMDAの2つの最先端オープンダイアログモデルの限られたコモンセンス能力について予備観測を行った。
論文 参考訳(メタデータ) (2023-02-15T19:55:57Z) - The Debate Over Understanding in AI's Large Language Models [0.18275108630751835]
我々は、AI研究コミュニティにおける、大規模な事前訓練された言語モデルが"理解"言語と言えるかどうかについて、現在、熱い議論を調査している。
我々は、異なる理解様式に関する洞察を提供する新しい知性科学を開発することができると論じる。
論文 参考訳(メタデータ) (2022-10-14T17:04:29Z) - Solving Quantitative Reasoning Problems with Language Models [53.53969870599973]
我々は、一般的な自然言語データに基づいて事前訓練された大規模言語モデルであるMinervaを紹介し、さらに技術的な内容について訓練する。
このモデルは、外部ツールを使わずに、技術的ベンチマークで最先端のパフォーマンスを達成する。
我々はまた、物理学、生物学、化学、経済学、その他の科学における200以上の学部レベルの問題に対して、我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-06-29T18:54:49Z) - Crossing the Conversational Chasm: A Primer on Multilingual
Task-Oriented Dialogue Systems [51.328224222640614]
大規模な学習済みニューラルネットワークモデルに基づく最新のTODモデルは、データ空腹です。
ToDのユースケースのデータ取得は高価で面倒だ。
論文 参考訳(メタデータ) (2021-04-17T15:19:56Z) - KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn
Knowledge-driven Conversation [66.99734491847076]
我々は,中国語の多分野知識駆動会話データセットKdConvを提案する。
私たちのコーパスには3つのドメイン(映画、音楽、旅行)から4.5Kの会話と、平均19.0の回転数で86Kの発話が含まれています。
論文 参考訳(メタデータ) (2020-04-08T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。