論文の概要: Trace is the New AutoDiff -- Unlocking Efficient Optimization of Computational Workflows
- arxiv url: http://arxiv.org/abs/2406.16218v1
- Date: Sun, 23 Jun 2024 21:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 18:25:12.067378
- Title: Trace is the New AutoDiff -- Unlocking Efficient Optimization of Computational Workflows
- Title(参考訳): Traceが新しいAutoDiff -- 計算ワークフローの効率的な最適化をアンロックする
- Authors: Ching-An Cheng, Allen Nie, Adith Swaminathan,
- Abstract要約: 我々は、コーディングアシスタント、ロボット、コピロなどのAIシステムの設計と更新を自動化することによって動機付けられた最適化問題のクラスについて研究する。
本稿では,AIシステムの計算ワークフローをニューラルネットワークに似たグラフとして扱うエンドツーエンド最適化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.89948665187903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of optimization problems motivated by automating the design and update of AI systems like coding assistants, robots, and copilots. We propose an end-to-end optimization framework, Trace, which treats the computational workflow of an AI system as a graph akin to neural networks, based on a generalization of back-propagation. Optimization of computational workflows often involves rich feedback (e.g. console output or user's responses), heterogeneous parameters (e.g. prompts, hyper-parameters, codes), and intricate objectives (beyond maximizing a score). Moreover, its computation graph can change dynamically with the inputs and parameters. We frame a new mathematical setup of iterative optimization, Optimization with Trace Oracle (OPTO), to capture and abstract these properties so as to design optimizers that work across many domains. In OPTO, an optimizer receives an execution trace along with feedback on the computed output and updates parameters iteratively. Trace is the tool to implement OPTO in practice. Trace has a Python interface that efficiently converts a computational workflow into an OPTO instance using a PyTorch-like interface. Using Trace, we develop a general-purpose LLM-based optimizer called OptoPrime that can effectively solve OPTO problems. In empirical studies, we find that OptoPrime is capable of first-order numerical optimization, prompt optimization, hyper-parameter tuning, robot controller design, code debugging, etc., and is often competitive with specialized optimizers for each domain. We believe that Trace, OptoPrime and the OPTO framework will enable the next generation of interactive agents that automatically adapt using various kinds of feedback. Website: https://microsoft.github.io/Trace
- Abstract(参考訳): 我々は、コーディングアシスタント、ロボット、コピロなどのAIシステムの設計と更新を自動化することによって動機付けられた最適化問題のクラスについて研究する。
本稿では、バックプロパゲーションの一般化に基づいて、AIシステムの計算ワークフローをニューラルネットワークに似たグラフとして扱うエンドツーエンド最適化フレームワークであるTraceを提案する。
計算ワークフローの最適化には、リッチなフィードバック(コンソール出力やユーザの応答など)、異種パラメータ(例えばプロンプト、ハイパーパラメータ、コード)、複雑な目的(スコアの最大化に加えて)が含まれる。
さらに、その計算グラフは入力とパラメータによって動的に変化する。
我々は、反復最適化の新しい数学的設定、Trace Oracle (OPTO) を用いて、これらのプロパティをキャプチャして抽象化し、多くのドメインで機能する最適化を設計する。
OPTOでは、オプティマイザは計算された出力に対するフィードバックとともに実行トレースを受け取り、パラメータを反復的に更新する。
Traceは実際にOPTOを実装するツールです。
TraceにはPythonインターフェースがあり、PyTorchのようなインターフェイスを使って計算ワークフローをOPTOインスタンスに変換する。
Trace を用いて,OPTO 問題を効果的に解決できる汎用 LLM ベースのオプティマイザ OptoPrime を開発した。
実証実験では,OptoPrimeは1次数値最適化,プロンプト最適化,ハイパーパラメータチューニング,ロボットコントローラ設計,コードデバッギングなどが可能であり,各ドメインの特別なオプティマイザと競合することが多い。
Trace、OptoPrime、OPTOフレームワークは、様々な種類のフィードバックを使って自動的に適応するインタラクティブエージェントの次世代を可能にすると信じています。
ウェブサイト:https://microsoft.github.io/Trace
関連論文リスト
- LLM-based Optimization of Compound AI Systems: A Survey [64.39860384538338]
複合AIシステムでは、LLMコール、レトリバー、コードインタプリタ、ツールなどのコンポーネントが相互接続される。
近年の進歩により, LLM を用いたパラメータのエンドツーエンド最適化が可能となった。
本稿では,複合AIシステムのLCMに基づく最適化の原理と動向について述べる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Two Optimizers Are Better Than One: LLM Catalyst Empowers Gradient-Based Optimization for Prompt Tuning [69.95292905263393]
我々は,勾配に基づく最適化と大規模言語モデル(MsLL)が相互補完的であることを示し,協調的な最適化手法を提案する。
私たちのコードはhttps://www.guozix.com/guozix/LLM-catalystでリリースされています。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: An Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
特に、勾配に基づく最適化から理論的な枠組みや学習手法を借用し、改良された戦略を設計する。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - Language Agents as Optimizable Graphs [31.220547147952278]
本稿では,Large Language Models (LLM) ベースのエージェントを計算グラフとして記述する。
我々のフレームワークは、様々なLSMエージェントを効率的に開発し、統合し、自動的に改善するために使用することができる。
論文 参考訳(メタデータ) (2024-02-26T18:48:27Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Automatic Tuning of Tensorflow's CPU Backend using Gradient-Free
Optimization Algorithms [0.6543507682026964]
Deep Learning (DL) アプリケーションは、ジーンやPyTorchといったDLライブラリやフレームワークを使って構築されている。
これらのフレームワークは複雑なパラメータを持ち、優れたトレーニングを得るために調整する。
そこで,本論文では,トレーニングと推論性能を改善するために,DLフレームワークのパラメータをチューニングする問題をブラックボックス問題として扱う。
論文 参考訳(メタデータ) (2021-09-13T19:10:23Z) - Meta Learning Black-Box Population-Based Optimizers [0.0]
人口ベースのブラックボックス一般化を推論するメタラーニングの利用を提案する。
メタロス関数は,学習アルゴリズムが検索動作を変更することを促進し,新たなコンテキストに容易に適合できることを示す。
論文 参考訳(メタデータ) (2021-03-05T08:13:25Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。