論文の概要: Foundation models in brief: A historical, socio-technical focus
- arxiv url: http://arxiv.org/abs/2212.08967v1
- Date: Sat, 17 Dec 2022 22:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 17:04:22.270076
- Title: Foundation models in brief: A historical, socio-technical focus
- Title(参考訳): ファウンデーションモデルの概要:歴史的・社会技術的焦点
- Authors: Johannes Schneider
- Abstract要約: ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 2.5991265608180396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models can be disruptive for future AI development by scaling up
deep learning in terms of model size and training data's breadth and size.
These models achieve state-of-the-art performance (often through further
adaptation) on a variety of tasks in domains such as natural language
processing and computer vision. Foundational models exhibit a novel {emergent
behavior}: {In-context learning} enables users to provide a query and a few
examples from which a model derives an answer without being trained on such
queries. Additionally, {homogenization} of models might replace a myriad of
task-specific models with fewer very large models controlled by few
corporations leading to a shift in power and control over AI. This paper
provides a short introduction to foundation models. It contributes by crafting
a crisp distinction between foundation models and prior deep learning models,
providing a history of machine learning leading to foundation models,
elaborating more on socio-technical aspects, i.e., organizational issues and
end-user interaction, and a discussion of future research.
- Abstract(参考訳): モデルサイズとトレーニングデータの幅とサイズの観点からディープラーニングをスケールアップすることで、AI開発の将来において、ファンデーションモデルは破壊的になる可能性がある。
これらのモデルは、自然言語処理やコンピュータビジョンといったドメインの様々なタスクで(しばしばさらなる適応によって)最先端のパフォーマンスを達成する。
In-context learningは、ユーザがクエリを提供することを可能にし、モデルがそのようなクエリでトレーニングされることなく、答えを導出するいくつかの例を提供する。
さらに、モデルの均質化(homogenization)は、AIのパワーとコントロールのシフトにつながる少数の企業によって制御される非常に大きなモデルで、タスク固有の無数のモデルを置き換える可能性がある。
本稿では,基礎モデルの簡単な紹介を行う。
基礎モデルと以前のディープラーニングモデルとを区別し、基礎モデルにつながる機械学習の歴史を提供し、社会技術的側面、すなわち組織的問題とエンドユーザの相互作用についてより深く研究し、将来の研究について議論することで貢献する。
関連論文リスト
- Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Learning-based Models for Vulnerability Detection: An Extensive Study [3.1317409221921144]
我々は、最先端の学習ベースアプローチの2つのタイプを広範かつ包括的に調査する。
本稿では,シーケンスベースモデルの優先度と,グラフベースモデルの限定能力について実験的に検証する。
論文 参考訳(メタデータ) (2024-08-14T13:01:30Z) - Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Model Lakes [22.717104096113637]
ディープラーニングモデルのセットを考えると、タスクに適したモデルを見つけるのは難しいかもしれません。
データレイクの研究からヒントを得て、モデルレイクの概念を導入し、定義する。
大型モデル管理における基礎研究課題について論じる。
論文 参考訳(メタデータ) (2024-03-04T18:55:50Z) - Matching Pairs: Attributing Fine-Tuned Models to their Pre-Trained Large
Language Models [11.57282859281814]
異なる知識レベルと属性戦略を考慮し、最良の方法で10の微調整されたモデルのうち8つを正確に追跡できることに気付きます。
論文 参考訳(メタデータ) (2023-06-15T17:42:48Z) - Foundation Models for Natural Language Processing -- Pre-trained
Language Models Integrating Media [0.0]
ファンデーションモデルは自然言語処理のための事前訓練された言語モデルである。
画像処理やビデオ処理からロボット制御学習まで、幅広いメディアや問題領域に適用することができる。
本書は、ファンデーションモデルの研究および応用における技術の現状を概観する。
論文 参考訳(メタデータ) (2023-02-16T20:42:04Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。