論文の概要: Quo Vadis ChatGPT? From Large Language Models to Large Knowledge Models
- arxiv url: http://arxiv.org/abs/2405.19561v1
- Date: Wed, 29 May 2024 23:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 18:56:18.051133
- Title: Quo Vadis ChatGPT? From Large Language Models to Large Knowledge Models
- Title(参考訳): Quo Vadis ChatGPT : 大規模言語モデルから大規模知識モデルへ
- Authors: Venkat Venkatasubramanian, Arijit Chakraborty,
- Abstract要約: これらのハイブリッドAIシステムは、NLPベースの技術やNLPライクなアプリケーションに限らないため、LKM(Large Knowledge Models)と呼んでいる。
本稿では,化学工学におけるこのようなシステム開発における課題と機会について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The startling success of ChatGPT and other large language models (LLMs) using transformer-based generative neural network architecture in applications such as natural language processing and image synthesis has many researchers excited about potential opportunities in process systems engineering (PSE). The almost human-like performance of LLMs in these areas is indeed very impressive, surprising, and a major breakthrough. Their capabilities are very useful in certain tasks, such as writing first drafts of documents, code writing assistance, text summarization, etc. However, their success is limited in highly scientific domains as they cannot yet reason, plan, or explain due to their lack of in-depth domain knowledge. This is a problem in domains such as chemical engineering as they are governed by fundamental laws of physics and chemistry (and biology), constitutive relations, and highly technical knowledge about materials, processes, and systems. Although purely data-driven machine learning has its immediate uses, the long-term success of AI in scientific and engineering domains would depend on developing hybrid AI systems that use first principles and technical knowledge effectively. We call these hybrid AI systems Large Knowledge Models (LKMs), as they will not be limited to only NLP-based techniques or NLP-like applications. In this paper, we discuss the challenges and opportunities in developing such systems in chemical engineering.
- Abstract(参考訳): 自然言語処理や画像合成といったアプリケーションにおけるトランスフォーマーベースの生成ニューラルネットワークアーキテクチャを用いたChatGPTやその他の大規模言語モデル(LLM)の驚くべき成功は、プロセスシステム工学(PSE)の潜在的な可能性に多くの研究者が興奮している。
これらの分野でのLLMのほぼ人間的なパフォーマンスは非常に印象的であり、驚き、そして大きなブレークスルーです。
その機能は、ドキュメントの最初のドラフトを書くこと、コード記述補助、テキストの要約など、特定のタスクで非常に役立ちます。
しかし、その成功は、詳細なドメイン知識の欠如のために、まだ推論、計画、説明ができないため、非常に科学的領域において限られている。
これは化学工学などの分野において、物理や化学(および生物学)の基本法則、構成的関係、材料、プロセス、システムに関する高度な技術知識によって支配される問題である。
純粋にデータ駆動機械学習はすぐに使えるが、科学と工学の分野におけるAIの長期的な成功は、第一原理と技術的な知識を効果的に活用するハイブリッドAIシステムの開発に依存する。
我々はこれらのハイブリッドAIシステムをLKM(Large Knowledge Models)と呼んでいる。
本稿では,化学工学におけるこのようなシステム開発における課題と機会について論じる。
関連論文リスト
- Cognition is All You Need -- The Next Layer of AI Above Large Language
Models [0.0]
我々は,大規模言語モデル以外のニューロシンボリック認知のためのフレームワークであるCognitive AIを紹介する。
我々は、認知AIがAGIのようなAI形態の進化に必須の先駆者であり、AGIは独自の確率論的アプローチでは達成できないと主張する。
我々は、大規模言語モデル、AIの採用サイクル、および商用の認知AI開発に関する議論で締めくくります。
論文 参考訳(メタデータ) (2024-03-04T16:11:57Z) - Deep Learning Approaches for Improving Question Answering Systems in
Hepatocellular Carcinoma Research [0.0]
近年,自然言語処理(NLP)の進歩は,ディープラーニング技術によって加速されている。
膨大な量のデータに基づいてトレーニングされたBERTとGPT-3は、言語理解と生成に革命をもたらした。
本稿では,大規模モデルベースNLPの現状と今後の展望について述べる。
論文 参考訳(メタデータ) (2024-02-25T09:32:17Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Towards AGI in Computer Vision: Lessons Learned from GPT and Large
Language Models [98.72986679502871]
大規模言語モデル(LLM)を利用したチャットシステムが出現し、人工知能(AGI)を実現するための有望な方向へと急速に成長する
しかし、コンピュータビジョン(CV)におけるAGIへの道のりは未だに不明である。
CVアルゴリズムを世界規模で対話可能な環境に配置し、その動作に関する将来のフレームを予測するための事前トレーニングを行い、さまざまなタスクをこなすための命令で微調整するパイプラインを想像する。
論文 参考訳(メタデータ) (2023-06-14T17:15:01Z) - TaskMatrix.AI: Completing Tasks by Connecting Foundation Models with
Millions of APIs [71.7495056818522]
私たちは、基礎モデルと数百万のAPIを結合してタスク補完を行う、新しいAIエコシステムとしてTaskMatrix.AIを紹介します。
このようなエコシステムを構築するためのビジョンを示し、それぞれの重要なコンポーネントを説明し、このビジョンの実現可能性と次に取り組むべき主な課題の両方を説明するために研究ケースを使用します。
論文 参考訳(メタデータ) (2023-03-29T03:30:38Z) - Mathematics, word problems, common sense, and artificial intelligence [0.0]
本稿では,基本知識とコモンセンス推論を組み合わせた単語問題の解法として,現在の人工知能(AI)技術の能力と限界について論じる。
我々は、AI自然言語技術を用いて開発されている3つのアプローチについてレビューする。
純粋な数学的研究のためのAI技術を開発する上で、このような制限が重要であるかどうかは明らかではない、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-23T21:21:39Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Artificial Intelligence in the Low-Level Realm -- A Survey [0.0]
我々は、OSの主要な責務において、AIアプローチ、特に機械学習を利用する方法と努力を求めます。
言い換えれば、答えるべき主な質問は、従来のOSカーネルのメインタスクを改善する上で、AIがどのように直接的に役割を担ってきたか、という点である。
論文 参考訳(メタデータ) (2021-09-19T19:36:54Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - Technology Readiness Levels for AI & ML [79.22051549519989]
機械学習システムの開発は、現代的なツールで容易に実行できるが、プロセスは通常急いで、エンドツーエンドで実行される。
エンジニアリングシステムは、高品質で信頼性の高い結果の開発を効率化するために、明確に定義されたプロセスとテスト標準に従います。
我々は、機械学習の開発と展開のための実証されたシステムエンジニアリングアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-21T17:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。