論文の概要: DGoT: Dynamic Graph of Thoughts for Scientific Abstract Generation
- arxiv url: http://arxiv.org/abs/2403.17491v1
- Date: Tue, 26 Mar 2024 08:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 16:16:34.229085
- Title: DGoT: Dynamic Graph of Thoughts for Scientific Abstract Generation
- Title(参考訳): DGoT:科学的な抽象生成のための思考の動的グラフ
- Authors: Xinyu Ning, Yutong Zhao, Yitong Liu, Hongwen Yang,
- Abstract要約: 本稿では,科学論文の要約を生成するための動的思考グラフ(DGoT)を提案する。
抽象生成タスクにおけるコスト効率は,他のマルチラウンドクエリプロンプト手法の43.7%から56.4%に過ぎなかった。
- 参考スコア(独自算出の注目度): 4.404836880890741
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The method of training language models based on domain datasets has obtained significant achievements in the task of generating scientific paper abstracts. However, such models face problems of generalization and expensive training costs. The use of large language models (LLMs) to solve the task of generating paper abstracts saves the cost of model training. However, due to the hallucination problem of LLM, it is often necessary to improve the reliability of the results through multi-round query prompt approach such as Graph of Thoughts (GoT), which also brings additional reasoning costs. In this paper, we propose a Dynamic Graph of Thought (DGoT). It not only inherits the advantages of the existing GoT prompt approach, but also dynamically adjust the graph structure according to data characteristics while reducing model reasoning cost. Experimental results show that our method's cost-effectiveness in abstract generation tasks is only 43.7% to 56.4% of other multi-round query prompt approaches. Our code is available at https://github.com/JayceNing/DGoT.
- Abstract(参考訳): ドメインデータセットに基づく言語モデルを訓練する方法は、科学論文の要約を生成するタスクにおいて、重要な成果を得た。
しかし、そのようなモデルは一般化と高価な訓練コストの問題に直面している。
大きな言語モデル(LLM)を用いて論文の要約を生成することで、モデルトレーニングのコストを削減できる。
しかし, LLMの幻覚的問題のため, グラフ・オブ・シント(GoT)のような複数ラウンドのクエリプロンプトアプローチにより, 結果の信頼性を向上させる必要がしばしばある。
本稿では,動的思考グラフ(DGoT)を提案する。
既存のGoTプロンプトアプローチの利点を継承するだけでなく、モデル推論コストを低減しつつ、データ特性に応じてグラフ構造を動的に調整する。
実験結果から,他の複数ラウンドクエリプロンプト手法の43.7%から56.4%に過ぎなかった。
私たちのコードはhttps://github.com/JayceNing/DGoT.comで利用可能です。
関連論文リスト
- Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - All in One: Multi-Task Prompting for Graph Neural Networks (Extended
Abstract) [30.457491401821652]
本論文は,KDD23で発表された論文の要約であり,研究論文賞を受賞した。
これは、事前訓練されたグラフモデルと適用されるさまざまなタスクの間のギャップを埋める新しいアプローチを導入します。
論文 参考訳(メタデータ) (2024-03-11T16:04:58Z) - GraphWiz: An Instruction-Following Language Model for Graph Problems [43.32154561543741]
GraphInstructは、言語モデルに明示的な推論パスを用いて、幅広いグラフ問題に対処する機能を持たせるために設計されたデータセットである。
GraphWizは、明確な推論プロセスを生成しながら、さまざまなグラフ問題タイプを解決できるオープンソースの言語モデルです。
拡張モデルであるGraphWiz-DPOは、9つのタスクで平均65%の精度を達成し、GPT-4を平均43.8%上回っている。
論文 参考訳(メタデータ) (2024-02-25T08:41:32Z) - Efficient Verification-Based Face Identification [55.295300263404265]
効率の良いニューラルモデルで顔認証を行う際の問題点を$f$で検討する。
我々のモデルは、23kパラメータと5M浮動小数点演算(FLOPS)しか必要としない、かなり小さな$f$に導かれる。
我々は、6つの顔認証データセットを用いて、我々の手法が最先端のモデルよりも同等か優れていることを示す。
論文 参考訳(メタデータ) (2023-12-20T18:08:02Z) - LIC-GAN: Language Information Conditioned Graph Generative GAN Model [0.0]
我々は,高額なグラフマッチング処理の必要性を回避するために,小グラフに対する暗黙的,可能性のない生成モデルであるlic-GANを導入する。
提案手法は,自然言語クエリを入力として,言語モデリングとGAN(Generative Adversarial Networks)の組み合わせを用いて,クエリの記述と密接に一致するグラフを返す。
論文 参考訳(メタデータ) (2023-06-02T22:39:14Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Neural Language Modeling for Contextualized Temporal Graph Generation [49.21890450444187]
本稿では,大規模事前学習言語モデルを用いた文書のイベントレベル時間グラフの自動生成に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2020-10-20T07:08:00Z) - Investigating Pretrained Language Models for Graph-to-Text Generation [55.55151069694146]
Graph-to-text生成は、グラフベースのデータから流動的なテキストを生成することを目的としている。
本稿では,3つのグラフ領域,つまり表現,ウィキペディア知識グラフ(KG),科学的なKGについて検討する。
我々は, PLM の BART と T5 が新たな最先端の成果を達成し, タスク適応型事前学習戦略が性能をさらに向上することを示す。
論文 参考訳(メタデータ) (2020-07-16T16:05:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。