論文の概要: CoEvo: Continual Evolution of Symbolic Solutions Using Large Language Models
- arxiv url: http://arxiv.org/abs/2412.18890v1
- Date: Wed, 25 Dec 2024 12:27:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:29:35.677597
- Title: CoEvo: Continual Evolution of Symbolic Solutions Using Large Language Models
- Title(参考訳): CoEvo: 大規模言語モデルを用いたシンボリックソリューションの継続的な進化
- Authors: Ping Guo, Qingfu Zhang, Xi Lin,
- Abstract要約: 大規模言語モデル(LLM)は人工知能の変換ツールとして登場した。
本稿では,LLMが科学・工学分野における記号解の発見を促進する可能性について考察する。
- 参考スコア(独自算出の注目度): 14.161627541155775
- License:
- Abstract: Large Language Models (LLMs) have emerged as transformative tools in artificial intelligence, capable of processing and understanding extensive human knowledge to enhance problem-solving across various domains. This paper explores the potential of LLMs to drive the discovery of symbolic solutions within scientific and engineering disciplines, where such solutions are crucial for advancing theoretical and practical applications. We propose a novel framework that utilizes LLMs in an evolutionary search methodology, augmented by a dynamic knowledge library that integrates and refines insights in an \textit{open-ended manner}. This approach aims to tackle the dual challenges of efficiently navigating complex symbolic representation spaces and leveraging both existing and newly generated knowledge to foster open-ended innovation. By enabling LLMs to interact with and expand upon a knowledge library, we facilitate the continuous generation of novel solutions in diverse forms such as language, code, and mathematical expressions. Our experimental results demonstrate that this method not only enhances the efficiency of searching for symbolic solutions but also supports the ongoing discovery process, akin to human scientific endeavors. This study represents a first effort in conceptualizing the search for symbolic solutions as a lifelong, iterative process, marking a significant step towards harnessing AI in the perpetual pursuit of scientific and engineering breakthroughs. We have open-sourced our code and data, please visit \url{https://github.com/pgg3/CoEvo} for more information.
- Abstract(参考訳): 大規模言語モデル (LLM) は人工知能の変換ツールとして登場し、幅広い人間の知識を処理し理解し、様々な領域における問題解決を強化する。
本稿では,科学・工学分野における記号的解の発見を促進するためのLLMの可能性について考察する。
本稿では,LLMを進化的探索手法として活用する新しいフレームワークを提案する。
このアプローチは、複雑なシンボル表現空間を効率的にナビゲートし、既存の知識と新しく生成された知識の両方を活用して、オープンエンドなイノベーションを育むという2つの課題に取り組むことを目的としている。
LLMが知識ライブラリと対話し、拡張することにより、言語、コード、数学的表現などの多様な形態で新しいソリューションを連続的に生成しやすくする。
実験の結果, この手法は, 記号解探索の効率を高めるだけでなく, 人間の科学的努力に類似した発見プロセスも支援していることが明らかとなった。
この研究は、記号的解の探索を生涯的かつ反復的なプロセスとして概念化する最初の試みであり、科学と工学のブレークスルーの永久的な追求において、AIを活用するための重要なステップである。
コードとデータをオープンソース化しましたので、詳細は \url{https://github.com/pgg3/CoEvo} をご覧ください。
関連論文リスト
- A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
本稿では、データコンテキスト化の改善、モデルの精度の向上、知識リソースの利用改善など、生成AIを知識ベースに統合するメリットを強調した。
この調査結果は、現在の研究状況の詳細な概要を提供し、重要なギャップを特定し、実行可能なレコメンデーションを提供する。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - SciPIP: An LLM-based Scientific Paper Idea Proposer [30.670219064905677]
SciPIPは,文献検索とアイデア生成の両面での改善を通じて,科学的アイデアの提案を強化するために設計された,革新的なフレームワークである。
自然言語処理やコンピュータビジョンなど,さまざまな領域で実施した実験では,SciPIPが革新的で有用なアイデアを多数生成する能力を示した。
論文 参考訳(メタデータ) (2024-10-30T16:18:22Z) - BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
我々は,Bloomの分類にインスパイアされた新しいプロンプト技術であるBloomWiseを導入し,Large Language Models(LLMs)の性能を向上させる。
より洗練された認知スキルを身につける必要性に関する決定は、LLMによる自己評価に基づいている。
4つの一般的な算数推論データセットの広範な実験において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - A Survey on Symbolic Knowledge Distillation of Large Language Models [8.237773729114926]
大規模言語モデルにおける記号的知識蒸留の出現と臨界領域に焦点を当てた調査。
知識の深みを理解可能なフォーマットで維持することを含む、中核的な課題について説明する。
この分野で開発された様々なアプローチや技法を精査する。
論文 参考訳(メタデータ) (2024-07-12T12:18:19Z) - Reinforcement Learning Problem Solving with Large Language Models [0.0]
大規模言語モデル (LLM) には膨大な量の世界知識があり、自然言語処理 (NLP) タスクの性能向上のために様々な分野に応用できるようになっている。
これはまた、人間とAIシステム間の会話に基づく対話による、意図した問題を解決するための、よりアクセスしやすいパラダイムを促進する。
研究科学者」と「レガリー・マター・インテーク」の2つの詳細なケーススタディを通して、我々のアプローチの実践性を示す。
論文 参考訳(メタデータ) (2024-04-29T12:16:08Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - Open-world Machine Learning: A Review and New Outlooks [83.6401132743407]
本稿では,新たなオープンワールド機械学習パラダイムを包括的に紹介することを目的としている。
研究者がそれぞれの分野でより強力なAIシステムを構築するのを支援し、人工知能の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T06:25:26Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。