論文の概要: Unleashing the Power of Graph Learning through LLM-based Autonomous
Agents
- arxiv url: http://arxiv.org/abs/2309.04565v1
- Date: Fri, 8 Sep 2023 19:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 17:36:40.788263
- Title: Unleashing the Power of Graph Learning through LLM-based Autonomous
Agents
- Title(参考訳): LLMに基づく自律エージェントによるグラフ学習のパワーの解放
- Authors: Lanning Wei, Zhiqiang He, Huan Zhao, Quanming Yao
- Abstract要約: 本稿では,大規模言語モデル(LLM)を自律エージェントとして利用し,多様な実世界のグラフ上での学習プロセスを簡素化することを提案する。
提案手法はAuto$2$Graphと呼ばれ、異なるデータセットや学習タスクにおける同等のパフォーマンスを持つ。
- 参考スコア(独自算出の注目度): 38.71102849652413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph structured data are widely existed and applied in the real-world
applications, while it is a challenge to handling these diverse data and
learning tasks on graph in an efficient manner. When facing the complicated
graph learning tasks, experts have designed diverse Graph Neural Networks
(GNNs) in recent years. They have also implemented AutoML in Graph, also known
as AutoGraph, to automatically generate data-specific solutions. Despite their
success, they encounter limitations in (1) managing diverse learning tasks at
various levels, (2) dealing with different procedures in graph learning beyond
architecture design, and (3) the huge requirements on the prior knowledge when
using AutoGraph. In this paper, we propose to use Large Language Models (LLMs)
as autonomous agents to simplify the learning process on diverse real-world
graphs. Specifically, in response to a user request which may contain varying
data and learning targets at the node, edge, or graph levels, the complex graph
learning task is decomposed into three components following the agent planning,
namely, detecting the learning intent, configuring solutions based on
AutoGraph, and generating a response. The AutoGraph agents manage crucial
procedures in automated graph learning, including data-processing, AutoML
configuration, searching architectures, and hyper-parameter fine-tuning. With
these agents, those components are processed by decomposing and completing step
by step, thereby generating a solution for the given data automatically,
regardless of the learning task on node or graph. The proposed method is dubbed
Auto$^2$Graph, and the comparable performance on different datasets and
learning tasks. Its effectiveness is demonstrated by its comparable performance
on different datasets and learning tasks, as well as the human-like decisions
made by the agents.
- Abstract(参考訳): グラフ構造化データは現実世界のアプリケーションに広く存在し応用されているが、これらの多様なデータや学習タスクを効率的にグラフ上で扱うことは困難である。
複雑なグラフ学習タスクに直面すると、専門家は近年、多様なグラフニューラルネットワーク(GNN)を設計している。
彼らはまた、データ固有のソリューションを自動的に生成するために、AutoML in Graph(別名AutoGraph)を実装した。
その成功にもかかわらず、(1)多様な学習タスクを様々なレベルで管理すること、(2)アーキテクチャ設計を超えてグラフ学習の異なる手順を扱うこと、(3)AutoGraphを使用する際の事前知識に対する大きな要求に直面する。
本稿では,Large Language Models (LLM) を自律エージェントとして使用し,多様な実世界のグラフの学習プロセスを簡素化する。
具体的には、ノード、エッジ、グラフレベルでさまざまなデータや学習対象を含むユーザ要求に応じて、エージェントプランニングに従って、複雑なグラフ学習タスクを3つのコンポーネント、すなわち学習意図の検出、オートグラフに基づくソリューションの構成、応答生成に分解する。
AutoGraphエージェントは、データ処理、AutoML設定、検索アーキテクチャ、ハイパーパラメータの微調整など、グラフの自動学習において重要な手順を管理する。
これらのエージェントでは、これらのコンポーネントを段階的に分解して処理し、ノードやグラフの学習タスクに関係なく、所定のデータに対するソリューションを自動的に生成する。
提案手法はAuto$2$Graphと呼ばれ、異なるデータセットや学習タスクにおける同等の性能を持つ。
その効果は、異なるデータセットと学習タスク、およびエージェントによってなされる人間的な決定における比較パフォーマンスによって示される。
関連論文リスト
- Task Preference Optimization: Improving Multimodal Large Language Models with Vision Task Alignment [58.94611347128066]
タスク選好最適化(TPO)は、典型的なきめ細かい視覚的タスクから派生した微分可能なタスク選好を利用する新しい手法である。
トレーニング中にリッチなビジュアルラベルを活用することで、TPOはMLLMのマルチモーダル能力とタスク固有のパフォーマンスを大幅に向上させる。
VideoChatとLLaVAによるこのアプローチのインスタンス化は、ベースラインモデルと比較して、総合的に14.6%のマルチモーダル性能の向上を示している。
論文 参考訳(メタデータ) (2024-12-26T18:56:05Z) - GraphRouter: A Graph-based Router for LLM Selections [13.463815950807874]
Graphは、大規模言語モデルの文脈的および適応的な選択のためのグラフベースのアプローチである。
Graphは既存のルータを大幅に上回り、12.3%の最小パフォーマンス向上を実現している。
この研究は、LLMの文脈的および適応的な選択のためのグラフベースのアプローチを実現し、現実世界のアプリケーションに対する洞察を提供する。
論文 参考訳(メタデータ) (2024-10-04T18:02:48Z) - AvaTaR: Optimizing LLM Agents for Tool Usage via Contrastive Reasoning [93.96463520716759]
大規模言語モデル(LLM)エージェントは、精度と幻覚を高めるために外部ツールと知識を活用する際、印象的な能力を示した。
本稿では、LLMエージェントを最適化して提供されたツールを効果的に活用し、与えられたタスクのパフォーマンスを向上させる新しい自動化フレームワークであるAvaTaRを紹介する。
論文 参考訳(メタデータ) (2024-06-17T04:20:02Z) - Exploring the Potential of Large Language Models in Graph Generation [51.046188600990014]
グラフ生成は、与えられたプロパティを持つグラフを生成するために、大きな言語モデル(LLM)を必要とする。
本稿では,LLMのグラフ生成能力について,系統的なタスク設計と実験による検討を行う。
評価の結果,LLM,特にGPT-4は,グラフ生成タスクに予備的能力を示すことがわかった。
論文 参考訳(メタデータ) (2024-03-21T12:37:54Z) - MuseGraph: Graph-oriented Instruction Tuning of Large Language Models
for Generic Graph Mining [41.19687587548107]
グラフニューラルネットワーク(GNN)は、異なるグラフタスクやデータセットに適用されるたびに、再トレーニングされる必要がある。
GNNとLarge Language Models(LLM)の強みをシームレスに統合する新しいフレームワークMusteGraphを提案する。
実験結果から,異なるグラフタスクの大幅な改善が示された。
論文 参考訳(メタデータ) (2024-03-02T09:27:32Z) - Towards Versatile Graph Learning Approach: from the Perspective of Large
Language Models [40.58843080489752]
大きな言語モデル(LLM)は、豊富な知識と人間のような知性のために潜在的な解決策を提供する。
本稿では LLM を用いた多目的グラフ学習手法の設計のための新しい概念的プロトタイプを提案する。
論文 参考訳(メタデータ) (2024-02-18T16:43:21Z) - Can we Soft Prompt LLMs for Graph Learning Tasks? [22.286189757942054]
GraphPrompterは、グラフ情報とLLM(Large Language Models)をソフトプロンプトで整合させるように設計されたフレームワークである。
このフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な機能を明らかにしている。
論文 参考訳(メタデータ) (2024-02-15T23:09:42Z) - All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining [18.955565096212183]
大規模言語モデル (LLM) はコンピュータビジョン (CV) と自然言語処理 (NLP) の分野に革命をもたらした。
LLMの最も注目すべき進歩の1つは、単一のモデルが複数のドメインにまたがる広範囲で多様なデータセットでトレーニングされていることである。
論文 参考訳(メタデータ) (2024-02-15T09:55:39Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Integrating Graphs with Large Language Models: Methods and Prospects [68.37584693537555]
大規模言語モデル (LLMs) が最前線として登場し、様々なアプリケーションにおいて非並列の長所を示している。
LLMとグラフ構造化データを組み合わせることは、非常に興味深いトピックです。
本稿では、そのような統合を2つの主要なカテゴリに分岐する。
論文 参考訳(メタデータ) (2023-10-09T07:59:34Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。