論文の概要: FoGE: Fock Space inspired encoding for graph prompting
- arxiv url: http://arxiv.org/abs/2507.02937v1
- Date: Thu, 26 Jun 2025 23:48:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-13 12:05:57.538952
- Title: FoGE: Fock Space inspired encoding for graph prompting
- Title(参考訳): FoGE: Fock Spaceはグラフプロンプトのエンコーディングにインスパイアされた
- Authors: Sotirios Panagiotis Chytas, Rudrasis Chakraborty, Vikas Singh,
- Abstract要約: 大規模言語モデル(LLM)は、グラフのような構造化データに関する質問を理解し、答えることができる。
既存の提案では、LLMに送信された拡張'プロンプトを生成するために、グラフのいくつかの記述を使用することが多い。
本稿では,Fock空間表現に基づくパラメータフリーグラフエンコーダの利用が,この問題設定において極めて多目的であることを示す。
- 参考スコア(独自算出の注目度): 38.20996638137112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent results show that modern Large Language Models (LLM) are indeed capable of understanding and answering questions about structured data such as graphs. This new paradigm can lead to solutions that require less supervision while, at the same time, providing a model that can generalize and answer questions beyond the training labels. Existing proposals often use some description of the graph to create an ``augmented'' prompt fed to the LLM. For a chosen class of graphs, if a well-tailored graph encoder is deployed to play together with a pre-trained LLM, the model can answer graph-related questions well. Existing solutions to graph-based prompts range from graph serialization to graph transformers. In this work, we show that the use of a parameter-free graph encoder based on Fock space representations, a concept borrowed from mathematical physics, is remarkably versatile in this problem setting. The simple construction, inherited directly from the theory with a few small adjustments, can provide rich and informative graph encodings, for a wide range of different graphs. We investigate the use of this idea for prefix-tuned prompts leveraging the capabilities of a pre-trained, frozen LLM. The modifications lead to a model that can answer graph-related questions -- from simple graphs to proteins to hypergraphs -- effectively and with minimal, if any, adjustments to the architecture. Our work significantly simplifies existing solutions and generalizes well to multiple different graph-based structures effortlessly.
- Abstract(参考訳): 最近の結果から,現代のLarge Language Models (LLM) はグラフのような構造化データに関する質問を理解し,回答することができることがわかった。
この新たなパラダイムは、トレーニングラベルを超えた質問を一般化し、回答できるモデルを提供すると同時に、監督を少なくするソリューションにつながる可能性がある。
既存の提案では、グラフのいくつかの記述を使って'augmented' プロンプトを LLM に送信する。
選択されたグラフのクラスに対して、適切に調整されたグラフエンコーダが事前訓練されたLCMと併用するようにデプロイされた場合、そのモデルはグラフ関連の問題にうまく答えることができる。
グラフベースのプロンプトに対する既存のソリューションは、グラフシリアライゼーションからグラフ変換器まで様々である。
本研究では,数理物理学から借用したFock空間表現に基づくパラメータフリーグラフエンコーダの利用が,この問題において極めて多目的であることを示す。
簡単な構成は、わずかな調整で理論から直接受け継がれ、多種多様なグラフに対してリッチで情報的なグラフ符号化を提供することができる。
本研究では,プレトレーニング済み凍結LDMの能力を活用したプレフィックス調整プロンプトの開発について検討する。
この修正によって、単純なグラフからタンパク質、ハイパーグラフまで、アーキテクチャの調整を効果的かつ最小限で行うことができる。
我々の研究は、既存のソリューションを著しく単純化し、複数の異なるグラフベースの構造にうまく一般化する。
関連論文リスト
- GraphSOS: Graph Sampling and Order Selection to Help LLMs Understand Graphs Better [13.742220809751627]
GraphSOSは、グラフデータを自然言語テキストに変換する新しいフレームワークである。
Order Selector Moduleはグラフの適切なシリアライズ順序を保証するもので、Subgraph Smpling Moduleはより良い推論のためにより良い構造を持つサブグラフをサンプリングする。
ノード分類とグラフ問合せのための複数のデータセットの実験は、GraphSOSがグラフタスクにおけるLLMのパフォーマンスと能力を改善することを示した。
論文 参考訳(メタデータ) (2025-01-24T11:55:57Z) - What Do LLMs Need to Understand Graphs: A Survey of Parametric Representation of Graphs [69.48708136448694]
大規模言語モデル(LLM)は、期待される推論能力と推論能力のために、AIコミュニティで再編成されている。
我々は、グラフのこのようなパラメトリック表現、グラフ法則は、LLMがグラフデータを入力として理解させるソリューションであると信じている。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - Scalable and Accurate Graph Reasoning with LLM-based Multi-Agents [27.4884498301785]
GraphAgent-Reasonerは、明示的で正確なグラフ推論のための微調整不要なフレームワークである。
分散グラフ計算理論にインスパイアされた我々のフレームワークは、グラフ問題を複数のエージェント間で分散される小さなノード中心のタスクに分解する。
本フレームワークは,Webページ重要度分析などの実世界のグラフ推論アプリケーションを扱う能力を示す。
論文 参考訳(メタデータ) (2024-10-07T15:34:14Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z) - GraphGPT: Graph Instruction Tuning for Large Language Models [27.036935149004726]
グラフニューラルネットワーク(GNN)は、グラフ構造を理解するために進化してきた。
堅牢性を高めるために、自己教師付き学習(SSL)はデータ拡張の重要なツールとなっている。
本研究は,ゼロショット学習環境におけるグラフモデルの一般化を推し進めることによって,この問題に対処する。
論文 参考訳(メタデータ) (2023-10-19T06:17:46Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - Graph2Graph Learning with Conditional Autoregressive Models [8.203106789678397]
グラフ・ツー・グラフ学習のための条件付きオートレアモデルを提案する。
本稿では,グラフアルゴリズムの挑戦的部分グラフ予測実験を通じて,その表現能力について述べる。
論文 参考訳(メタデータ) (2021-06-06T20:28:07Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。