論文の概要: LLM4AD: A Platform for Algorithm Design with Large Language Model
- arxiv url: http://arxiv.org/abs/2412.17287v1
- Date: Mon, 23 Dec 2024 05:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 19:42:48.333412
- Title: LLM4AD: A Platform for Algorithm Design with Large Language Model
- Title(参考訳): LLM4AD: 大規模言語モデルを用いたアルゴリズム設計プラットフォーム
- Authors: Fei Liu, Rui Zhang, Zhuoliang Xie, Rui Sun, Kai Li, Xi Lin, Zhenkun Wang, Zhichao Lu, Qingfu Zhang,
- Abstract要約: LLM4ADは,大規模言語モデル(LLM)を用いたアルゴリズム設計(AD)のための統一Pythonプラットフォームである。
プラットフォームは多くの重要なメソッドを統合し、最適化、機械学習、科学的発見など、さまざまな領域にわたる幅広いアルゴリズム設計タスクをサポートする。
チュートリアル、例、ユーザマニュアル、オンラインリソース、専用グラフィカルユーザインターフェース(GUI)など、包括的なサポートリソーススイートをコンパイルしました。
- 参考スコア(独自算出の注目度): 26.199201190378215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce LLM4AD, a unified Python platform for algorithm design (AD) with large language models (LLMs). LLM4AD is a generic framework with modularized blocks for search methods, algorithm design tasks, and LLM interface. The platform integrates numerous key methods and supports a wide range of algorithm design tasks across various domains including optimization, machine learning, and scientific discovery. We have also designed a unified evaluation sandbox to ensure a secure and robust assessment of algorithms. Additionally, we have compiled a comprehensive suite of support resources, including tutorials, examples, a user manual, online resources, and a dedicated graphical user interface (GUI) to enhance the usage of LLM4AD. We believe this platform will serve as a valuable tool for fostering future development in the merging research direction of LLM-assisted algorithm design.
- Abstract(参考訳): LLM4ADは,大規模言語モデル(LLM)を用いたアルゴリズム設計(AD)のための統一Pythonプラットフォームである。
LLM4ADは、探索方法、アルゴリズム設計タスク、LLMインタフェースのためのモジュール化されたブロックを備えた汎用フレームワークである。
プラットフォームは多くの重要なメソッドを統合し、最適化、機械学習、科学的発見など、さまざまな領域にわたる幅広いアルゴリズム設計タスクをサポートする。
我々はまた、アルゴリズムの安全で堅牢な評価を保証するために、サンドボックスの統一的な評価も設計した。
さらに、チュートリアル、例、ユーザマニュアル、オンラインリソース、LLM4ADの使用性を高めるための専用グラフィカルユーザインターフェース(GUI)など、包括的なサポートリソーススイートをコンパイルしました。
我々は,このプラットフォームが,LLM支援アルゴリズム設計の融合研究の方向性を推し進めるための貴重なツールとなると信じている。
関連論文リスト
- Aligning Multimodal LLM with Human Preference: A Survey [62.89722942008262]
大規模言語モデル(LLM)は、タスク固有のトレーニングを必要とせずに、単純なプロンプトで幅広い汎用タスクを処理できる。
MLLM(Multimodal Large Language Models)は、視覚的、聴覚的、テキスト的データを含む複雑なタスクに対処する大きな可能性を実証している。
しかし、真理性、安全性、o1のような推論、および人間の嗜好との整合性に関する重要な問題は未解決のままである。
論文 参考訳(メタデータ) (2025-03-18T17:59:56Z) - Multi-Programming Language Sandbox for LLMs [78.99934332554963]
大規模言語モデル(LLM)用のコンパイラと分析ツールから統一的で包括的なフィードバックを提供するように設計された、アウト・オブ・ザ・ボックスのマルチプログラミング言語サンドボックス
コードのプログラミング言語を自動的に識別し、独立したサブサンドボックス内でコンパイルして実行することで、安全性と安定性を確保することができる。
論文 参考訳(メタデータ) (2024-10-30T14:46:43Z) - A Systematic Survey on Large Language Models for Algorithm Design [25.556342145274613]
アルゴリズム設計(AD)は、様々な領域にわたる効果的な問題解決に不可欠である。
LLM(Large Language Models)の出現は、この分野における自動化とイノベーションを著しく強化した。
論文 参考訳(メタデータ) (2024-10-11T13:17:19Z) - On the Design and Analysis of LLM-Based Algorithms [74.7126776018275]
大規模言語モデル(LLM)はアルゴリズムのサブルーチンとして使用される。
LLMは素晴らしい経験的成功を収めた。
提案フレームワークは,LLMアルゴリズムの進歩を約束する。
論文 参考訳(メタデータ) (2024-07-20T07:39:07Z) - Demystifying Platform Requirements for Diverse LLM Inference Use Cases [7.233203254714951]
本稿では,大規模言語モデル推論性能とプラットフォーム設計パラメータの関係を明らかにするための分析ツールGenZを提案する。
LLaMA や GPT-4 のような SOTA LLM モデルをサポートするためのプラットフォーム要件を,多様なサービス設定下で定量化する。
結局のところ、この研究は、幅広いアプリケーションにまたがる大きな言語モデルの潜在能力を最大限に活用するためのプラットフォーム設計の考察に光を当てている。
論文 参考訳(メタデータ) (2024-06-03T18:00:50Z) - Tool Learning in the Wild: Empowering Language Models as Automatic Tool Agents [56.822238860147024]
大規模な言語モデルを外部ツールで拡張することは、彼らのユーティリティを拡張するための有望なアプローチとして現れました。
以前のメソッドは、ツールドキュメントを手動で解析し、コンテキスト内デモを作成し、ツールをLLMがステップバイステップの推論で使用する構造化フォーマットに変換する。
LLMがツール使用ワークフローを自動化できるフレームワークであるAutoToolsを提案する。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Large Language Models for the Automated Analysis of Optimization
Algorithms [0.9668407688201361]
最適化アルゴリズムの領域内でのLLM(Large Language Models)の可能性をSTNWebに組み込むことで実証することを目的としている。
これは、最適化アルゴリズムの挙動を可視化するサーチトラジェクトリ・ネットワーク(STN)の生成のためのWebベースのツールである。
論文 参考訳(メタデータ) (2024-02-13T14:05:02Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Struc-Bench: Are Large Language Models Really Good at Generating Complex Structured Data? [49.688233418425995]
Struc-Benchは、大きな言語モデル(LLM)を特徴とする包括的なベンチマークである。
Pスコア(Prompting Score)とHスコア(Heuristical Score)の2つの革新的な指標を提案する。
実験の結果,LLaMA-7Bに構造認識の微調整を適用すると,性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-09-16T11:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。