論文の概要: Emergent autonomous scientific research capabilities of large language
models
- arxiv url: http://arxiv.org/abs/2304.05332v1
- Date: Tue, 11 Apr 2023 16:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 14:05:46.422865
- Title: Emergent autonomous scientific research capabilities of large language
models
- Title(参考訳): 大規模言語モデルの創発的自律科学研究能力
- Authors: Daniil A. Boiko, Robert MacKnight, Gabe Gomes
- Abstract要約: トランスフォーマーベースの大規模言語モデルは、機械学習研究の分野で急速に進歩している。
本稿では、自律設計、計画、科学実験の実行のために、複数の大規模言語モデルを組み合わせたインテリジェントエージェントシステムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformer-based large language models are rapidly advancing in the field of
machine learning research, with applications spanning natural language,
biology, chemistry, and computer programming. Extreme scaling and reinforcement
learning from human feedback have significantly improved the quality of
generated text, enabling these models to perform various tasks and reason about
their choices. In this paper, we present an Intelligent Agent system that
combines multiple large language models for autonomous design, planning, and
execution of scientific experiments. We showcase the Agent's scientific
research capabilities with three distinct examples, with the most complex being
the successful performance of catalyzed cross-coupling reactions. Finally, we
discuss the safety implications of such systems and propose measures to prevent
their misuse.
- Abstract(参考訳): トランスフォーマーベースの大規模言語モデルは、自然言語、生物学、化学、コンピュータプログラミングにまたがる応用を含む機械学習研究の分野で急速に進歩している。
人間のフィードバックによる極度のスケーリングと強化学習は、生成したテキストの品質を大幅に向上させ、これらのモデルが様々なタスクを実行し、選択の理由付けを可能にした。
本稿では,科学実験の自律設計,計画,実行のために,複数の大規模言語モデルを組み合わせたインテリジェントエージェントシステムを提案する。
我々は3つの異なる例でエージェントの科学的研究能力を紹介し、最も複雑なのは触媒的クロスカップリング反応の成功例である。
最後に,これらのシステムの安全性について検討し,誤用防止策を提案する。
関連論文リスト
- SciAgents: Automating scientific discovery through multi-agent intelligent graph reasoning [0.0]
人工知能の鍵となる課題は、科学的理解を自律的に進めるシステムを作ることである。
3つのコア概念を活用するアプローチであるSciAgentsを提案する。
この枠組みは研究仮説を自律的に生成し、基礎となるメカニズム、設計原則、予期せぬ材料特性を解明する。
我々のケーススタディでは、生成AI、オントロジ表現、マルチエージェントモデリングを組み合わせて、生物学的システムに似た知能の群を活用できるスケーラブルな能力を実証している。
論文 参考訳(メタデータ) (2024-09-09T12:25:10Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、大規模言語モデルによる研究アイデア作成エージェントである。
科学文献に基づいて繰り返し精製しながら、問題、方法、実験設計を生成する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - MEIA: Multimodal Embodied Perception and Interaction in Unknown Environments [82.67236400004826]
本稿では,自然言語で表現されたハイレベルなタスクを実行可能なアクションのシーケンスに変換するための,MEIA(Multimodal Embodied Interactive Agent)を提案する。
MEMモジュールは、多様な要件とロボットの能力に基づいて、MEIAが実行可能なアクションプランを生成することを可能にする。
論文 参考訳(メタデータ) (2024-02-01T02:43:20Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - A Comprehensive Performance Study of Large Language Models on Novel AI
Accelerators [2.88634411143577]
大規模言語モデル(LLM)は、いくつかの課題に対処するための有望なアプローチと考えられている。
専門のAIアクセラレータハードウェアシステムは、最近、AIアプリケーションの高速化に利用できるようになった。
論文 参考訳(メタデータ) (2023-10-06T21:55:57Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - Detection of Fake Generated Scientific Abstracts [0.9525711971667679]
学術コミュニティは、現実と人工的に生成されたものとを区別することの難しさについて懸念を表明している。
本研究では,GPT-3モデルを用いて,人工知能による科学論文の要約を生成する。
本稿では,機械学習モデルと組み合わせたテキスト表現手法について検討する。
論文 参考訳(メタデータ) (2023-04-12T20:20:22Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。