論文の概要: OpenAGI: When LLM Meets Domain Experts
- arxiv url: http://arxiv.org/abs/2304.04370v5
- Date: Wed, 2 Aug 2023 19:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 16:54:00.453187
- Title: OpenAGI: When LLM Meets Domain Experts
- Title(参考訳): OpenAGI: LLMがドメインエキスパートと出会ったとき
- Authors: Yingqiang Ge, Wenyue Hua, Kai Mei, Jianchao Ji, Juntao Tan, Shuyuan
Xu, Zelong Li, Yongfeng Zhang
- Abstract要約: ヒューマンインテリジェンスは、複雑なタスクを解決するための基本的なスキルの組み合わせに長けている。
この能力は人工知能(AI)にとって不可欠であり、包括的なインテリジェントモデルに組み込まれるべきである。
大規模言語モデル(LLM)は、有望な学習能力と推論能力を示す。
- 参考スコア(独自算出の注目度): 40.34854318118859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human intelligence excels at combining basic skills to solve complex tasks.
This capability is vital for Artificial Intelligence (AI) and should be
embedded in comprehensive intelligent models, enabling them to harness expert
models for complex task-solving towards Artificial General Intelligence (AGI).
Large Language Models (LLMs) show promising learning and reasoning abilities,
and can effectively use external models, tools or APIs to tackle complex
problems. In this work, we introduce OpenAGI, an open-source AGI research
platform designed for multi-step, real-world tasks. Specifically, OpenAGI uses
a dual strategy, integrating standard benchmark tasks for benchmarking and
evaluation, and open-ended tasks including more expandable models, tools or
APIs for creative problem-solving. Tasks are presented as natural language
queries to the LLM, which then selects and executes appropriate models. We also
propose a Reinforcement Learning from Task Feedback (RLTF) mechanism that uses
task results to improve the LLM's ability, which creates a self-improving AI
feedback loop. While we acknowledge that AGI is a broad and multifaceted
research challenge with no singularly defined solution path, the integration of
LLMs with domain-specific expert models, inspired by mirroring the blend of
general and specialized intelligence in humans, offers a promising approach
towards AGI. We are open-sourcing the OpenAGI project's code, dataset,
benchmarks, evaluation methods, and demo to foster community involvement in AGI
advancement: https://github.com/agiresearch/OpenAGI.
- Abstract(参考訳): ヒューマンインテリジェンスは、複雑なタスクを解決するための基本的なスキルの組み合わせに長けている。
この能力は人工知能(AI)にとって不可欠であり、包括的なインテリジェントモデルに組み込まれるべきであり、AI(Artificial General Intelligence)に向けた複雑なタスク解決のためのエキスパートモデルを活用することができる。
大規模言語モデル(llm)は有望な学習能力と推論能力を示し、外部モデルやツール、apiを効果的に活用して複雑な問題に取り組むことができる。
本研究では,マルチステップ実世界のタスク用に設計されたオープンソースのAGI研究プラットフォームであるOpenAGIを紹介する。
特にopenagiでは,ベンチマークと評価のための標準ベンチマークタスクと,より拡張可能なモデルやツール,あるいは創造的な問題解決のためのapiを含むオープンエンドタスクの統合という,2つの戦略を採用している。
タスクはLLMに自然言語クエリとして表示され、適切なモデルを選択し実行します。
また,タスクフィードバック(rltf)機構からの強化学習を提案し,タスク結果を用いてllmの能力を改善し,自己改善型aiフィードバックループを作成する。
我々は、AGIが一意に定義された解決経路を持たない、広く多面的な研究課題であることを認めているが、LLMとドメイン固有の専門家モデルの統合は、人間における一般知能と専門知能の混在を反映したものであり、AGIに対する有望なアプローチである。
私たちは、openagiプロジェクトのコード、データセット、ベンチマーク、評価メソッド、デモをオープンソース化し、agiの進歩へのコミュニティの関与を促進しています。
関連論文リスト
- AIDE: AI-Driven Exploration in the Space of Code [6.401493599308353]
大規模言語モデル(LLM)を利用した機械学習エンジニアリングエージェントであるAI-Driven Exploration(AIDE)を紹介する。
AIDEは、コード最適化問題として機械学習エンジニアリングをフレーム化し、潜在的なソリューションの空間におけるツリーサーチとして試行錯誤を定式化する。
有望なソリューションを戦略的に再利用し、精製することにより、AIDEは計算資源を効果的に取引し、性能を向上する。
論文 参考訳(メタデータ) (2025-02-18T18:57:21Z) - Understanding and Benchmarking Artificial Intelligence: OpenAI's o3 Is Not AGI [0.0]
OpenAIのo3は、インテリジェンスを測定するためのベンチマークであるARC-AGIで87.5%のハイスコアを達成した。
これにより,大規模言語モデル(LLM)に基づくシステム,特にo3は,人工知能(AGI)に対する知性や進歩を示すのか,という疑問が提起される。
論文 参考訳(メタデータ) (2025-01-13T16:28:01Z) - Creating an LLM-based AI-agent: A high-level methodology towards enhancing LLMs with APIs [0.0]
大規模言語モデル(LLM)は、工学と科学の様々な側面に革命をもたらした。
この論文は総合的なガイドとして機能し、アプリケーションプログラミングインタフェース(API)を活用する能力を備えたLLMの強化のための多面的アプローチを解明する。
本稿では,Hugging Faceコミュニティの小さなモデルを用いて,携帯端末の機能を活用したオンデバイスアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:14:04Z) - Large Action Models: From Inception to Implementation [51.81485642442344]
大規模アクションモデル(LAM)は動的環境内でのアクション生成と実行のために設計されている。
LAMは、AIを受動的言語理解からアクティブなタスク完了に変換する可能性を秘めている。
創発から展開まで,LAMを体系的に開発するための総合的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-13T11:19:56Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - Evolutionary Computation in the Era of Large Language Model: Survey and Roadmap [26.959633651475016]
大規模言語モデル(LLM)と進化的アルゴリズム(EA)の相互作用は、複雑な問題における適用可能性の共通の追求を共有している。
LLMに固有の豊富なドメイン知識により、EAはよりインテリジェントな検索を行うことができる。
本稿では、相互インスピレーションを2つの主要な道に分類する、徹底的なレビューと前方のロードマップを提供する。
論文 参考訳(メタデータ) (2024-01-18T14:58:17Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in Hugging
Face [85.25054021362232]
大規模言語モデル(LLM)は、言語理解、生成、相互作用、推論において例外的な能力を示した。
LLMは、複雑なAIタスクを解決するために既存のAIモデルを管理するコントローラとして機能する可能性がある。
本稿では,機械学習コミュニティのさまざまなAIモデルを接続するLLMエージェントであるHuggingGPTを紹介する。
論文 参考訳(メタデータ) (2023-03-30T17:48:28Z) - TaskMatrix.AI: Completing Tasks by Connecting Foundation Models with
Millions of APIs [71.7495056818522]
私たちは、基礎モデルと数百万のAPIを結合してタスク補完を行う、新しいAIエコシステムとしてTaskMatrix.AIを紹介します。
このようなエコシステムを構築するためのビジョンを示し、それぞれの重要なコンポーネントを説明し、このビジョンの実現可能性と次に取り組むべき主な課題の両方を説明するために研究ケースを使用します。
論文 参考訳(メタデータ) (2023-03-29T03:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。