論文の概要: On the Opportunities and Risks of Foundation Models
- arxiv url: http://arxiv.org/abs/2108.07258v1
- Date: Mon, 16 Aug 2021 17:50:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:55:50.010730
- Title: On the Opportunities and Risks of Foundation Models
- Title(参考訳): 基礎モデルの機会とリスクについて
- Authors: Rishi Bommasani and Drew A. Hudson and Ehsan Adeli and Russ Altman and
Simran Arora and Sydney von Arx and Michael S. Bernstein and Jeannette Bohg
and Antoine Bosselut and Emma Brunskill and Erik Brynjolfsson and Shyamal
Buch and Dallas Card and Rodrigo Castellon and Niladri Chatterji and Annie
Chen and Kathleen Creel and Jared Quincy Davis and Dora Demszky and Chris
Donahue and Moussa Doumbouya and Esin Durmus and Stefano Ermon and John
Etchemendy and Kawin Ethayarajh and Li Fei-Fei and Chelsea Finn and Trevor
Gale and Lauren Gillespie and Karan Goel and Noah Goodman and Shelby Grossman
and Neel Guha and Tatsunori Hashimoto and Peter Henderson and John Hewitt and
Daniel E. Ho and Jenny Hong and Kyle Hsu and Jing Huang and Thomas Icard and
Saahil Jain and Dan Jurafsky and Pratyusha Kalluri and Siddharth Karamcheti
and Geoff Keeling and Fereshte Khani and Omar Khattab and Pang Wei Koh and
Mark Krass and Ranjay Krishna and Rohith Kuditipudi and Ananya Kumar and
Faisal Ladhak and Mina Lee and Tony Lee and Jure Leskovec and Isabelle Levent
and Xiang Lisa Li and Xuechen Li and Tengyu Ma and Ali Malik and Christopher
D. Manning and Suvir Mirchandani and Eric Mitchell and Zanele Munyikwa and
Suraj Nair and Avanika Narayan and Deepak Narayanan and Ben Newman and Allen
Nie and Juan Carlos Niebles and Hamed Nilforoshan and Julian Nyarko and Giray
Ogut and Laurel Orr and Isabel Papadimitriou and Joon Sung Park and Chris
Piech and Eva Portelance and Christopher Potts and Aditi Raghunathan and Rob
Reich and Hongyu Ren and Frieda Rong and Yusuf Roohani and Camilo Ruiz and
Jack Ryan and Christopher R\'e and Dorsa Sadigh and Shiori Sagawa and Keshav
Santhanam and Andy Shih and Krishnan Srinivasan and Alex Tamkin and Rohan
Taori and Armin W. Thomas and Florian Tram\`er and Rose E. Wang and William
Wang and Bohan Wu and Jiajun Wu and Yuhuai Wu and Sang Michael Xie and
Michihiro Yasunaga and Jiaxuan You and Matei Zaharia and Michael Zhang and
Tianyi Zhang and Xikun Zhang and Yuhui Zhang and Lucia Zheng and Kaitlyn Zhou
and Percy Liang
- Abstract要約: ファンデーションAIモデルは、大規模なデータに基づいてトレーニングされており、幅広い下流タスクに適応できる。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
- 参考スコア(独自算出の注目度): 260.1991722074399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI is undergoing a paradigm shift with the rise of models (e.g., BERT,
DALL-E, GPT-3) that are trained on broad data at scale and are adaptable to a
wide range of downstream tasks. We call these models foundation models to
underscore their critically central yet incomplete character. This report
provides a thorough account of the opportunities and risks of foundation
models, ranging from their capabilities (e.g., language, vision, robotics,
reasoning, human interaction) and technical principles (e.g., model
architectures, training procedures, data, systems, security, evaluation,
theory) to their applications (e.g., law, healthcare, education) and societal
impact (e.g., inequity, misuse, economic and environmental impact, legal and
ethical considerations). Though foundation models are based on conventional
deep learning and transfer learning, their scale results in new emergent
capabilities, and their effectiveness across so many tasks incentivizes
homogenization. Homogenization provides powerful leverage but demands caution,
as the defects of the foundation model are inherited by all the adapted models
downstream. Despite the impending widespread deployment of foundation models,
we currently lack a clear understanding of how they work, when they fail, and
what they are even capable of due to their emergent properties. To tackle these
questions, we believe much of the critical research on foundation models will
require deep interdisciplinary collaboration commensurate with their
fundamentally sociotechnical nature.
- Abstract(参考訳): AIは、大規模なデータに基づいてトレーニングされ、幅広い下流タスクに適応可能なモデル(BERT、DALL-E、GPT-3など)の台頭とともにパラダイムシフトを受けている。
これらのモデルファウンデーションモデルを使用して、批判的に中心的だが不完全な特性を強調する。
この報告書は、基礎モデルの能力(例えば、言語、視覚、ロボット工学、推論、ヒューマンインタラクション)と技術的原則(例えば、モデルアーキテクチャ、トレーニング手順、データ、システム、セキュリティ、評価、理論)から応用(例えば、法律、医療、教育)、社会的影響(例えば、不平等、誤用、経済および環境への影響、法的および倫理的考慮)まで、基礎モデルの機会とリスクに関する詳細な説明を提供する。
基礎モデルは従来のディープラーニングとトランスファー学習に基づいているが、そのスケールによって新たな創発的能力が生まれ、多くのタスクにまたがる効果が均質化のインセンティブとなる。
均質化は強力なレバレッジを提供するが、基礎モデルの欠陥は下流のすべての適応モデルによって継承されるので注意を要する。
基盤モデルの広範な展開が差し迫っているにもかかわらず、現時点では、それらがどのように機能するか、いつ失敗するのか、そして、その創発的な特性によって何ができるのかを明確に理解できていない。
これらの問題に取り組むために、基礎モデルに関する批判的な研究の多くは、その根本的な社会学的性質と共生する深い学際的な協力が必要であると信じています。
関連論文リスト
- The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - A Survey of Reasoning with Foundation Models [235.7288855108172]
推論は、交渉、医療診断、刑事捜査など、様々な現実世界の環境において重要な役割を担っている。
本稿では,推論に適応する基礎モデルを提案する。
次に、基礎モデルにおける推論能力の出現の背後にある潜在的な将来方向を掘り下げる。
論文 参考訳(メタデータ) (2023-12-17T15:16:13Z) - From Identifiable Causal Representations to Controllable Counterfactual Generation: A Survey on Causal Generative Modeling [17.074858228123706]
基本的な理論、方法論、欠点、データセット、メトリクスに重点を置いています。
フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療、生物科学における因果生成モデルの応用について述べる。
論文 参考訳(メタデータ) (2023-10-17T05:45:32Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - INSTRUCTEVAL: Towards Holistic Evaluation of Instruction-Tuned Large
Language Models [39.46610170563634]
INSTRUCTEVALは、命令調整された大規模言語モデルのために特別に設計された、より包括的な評価スイートである。
我々は,事前学習の基礎,指導指導データ,訓練方法など,モデル性能に影響を与える諸要因を総合的に分析する。
その結果, モデル性能のスケーリングにおいて, 命令データの品質が最も重要な要因であることが判明した。
論文 参考訳(メタデータ) (2023-06-07T20:12:29Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Predictability and Surprise in Large Generative Models [8.055204456718576]
大規模プレトレーニングは、有能で汎用的な生成モデルを作成するための技術として登場した。
本稿では,そのようなモデルの直観的特性を強調し,この特性の政策的含意について論じる。
論文 参考訳(メタデータ) (2022-02-15T23:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。