論文の概要: A Graph Total Variation Regularized Softmax for Text Generation
- arxiv url: http://arxiv.org/abs/2101.00153v1
- Date: Fri, 1 Jan 2021 03:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 11:11:35.439221
- Title: A Graph Total Variation Regularized Softmax for Text Generation
- Title(参考訳): テキスト生成のためのグラフ全変分正規化ソフトマックス
- Authors: Liu Bin, Wang Liang, Yin Guosheng
- Abstract要約: Softmaxオペレータは、機械学習モデルにおける最も重要な機能の1つです。
テキスト生成のためのグラフソフトマックス関数を提案する。
実験の結果,提案するグラフソフトマックスはソフトマックスよりもブレウとパープレキシーが良好であることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The softmax operator is one of the most important functions in machine
learning models. When applying neural networks to multi-category
classification, the correlations among different categories are often ignored.
For example, in text generation, a language model makes a choice of each new
word based only on the former selection of its context. In this scenario, the
link statistics information of concurrent words based on a corpus (an analogy
of the natural way of expression) is also valuable in choosing the next word,
which can help to improve the sentence's fluency and smoothness. To fully
explore such important information, we propose a graph softmax function for
text generation. It is expected that the final classification result would be
dominated by both the language model and graphical text relationships among
words. We use a graph total variation term to regularize softmax so as to
incorporate the concurrent relationship into the language model. The total
variation of the generated words should be small locally. We apply the proposed
graph softmax to GPT2 for the text generation task. Experimental results
demonstrate that the proposed graph softmax achieves better BLEU and perplexity
than softmax. Human testers can also easily distinguish the text generated by
the graph softmax or softmax.
- Abstract(参考訳): softmaxオペレータは、マシンラーニングモデルで最も重要な機能のひとつだ。
ニューラルネットワークを多カテゴリ分類に適用する場合、異なるカテゴリ間の相関は無視されることが多い。
例えば、テキスト生成では、言語モデルは、そのコンテキストの前の選択のみに基づいて、それぞれの新しい単語を選択する。
このシナリオでは、コーパス(表現の自然な方法のアナロジー)に基づく同時単語のリンク統計情報も次の単語を選択する際に有用であり、文の流速と滑らかさを向上させるのに役立つ。
そこで本研究では,テキスト生成のためのグラフソフトマックス関数を提案する。
最終分類結果は言語モデルと単語間のグラフィカルテキスト関係の両方に支配されることが期待される。
グラフの総変動項を用いてsoftmaxを正規化し,並行関係を言語モデルに組み込む。
生成した単語の総変化は局所的に小さくなければならない。
提案するグラフソフトマックスをgpt2にテキスト生成タスクに適用する。
実験の結果,提案するグラフソフトマックスはソフトマックスよりもブレウとパープレキシーが良好であることが判明した。
人間のテスタは、グラフsoftmaxやsoftmaxによって生成されたテキストを簡単に区別することができる。
関連論文リスト
- Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - GraphTranslator: Aligning Graph Model to Large Language Model for
Open-ended Tasks [44.02825843494608]
ChatGPTのような大規模言語モデル(LLM)は強力なゼロショットと命令追従機能を備えている。
GraphTranslatorは、事前に定義されたタスクを効果的に処理するためにGMを活用することを目的としている。
ノード表現をトークンに変換することで、GraphTranslatorはLLMに言語命令に基づいた予測を行う権限を与える。
論文 参考訳(メタデータ) (2024-02-11T13:24:13Z) - Large Language Models on Graphs: A Comprehensive Survey [77.16803297418201]
グラフ上の大規模言語モデルに関連するシナリオとテクニックを体系的にレビューする。
まず,LLMをグラフに適用する可能性シナリオを,純グラフ,テキスト分散グラフ,テキストペアグラフの3つのカテゴリにまとめる。
本稿では,そのような手法の現実的な応用について論じ,オープンソースコードとベンチマークデータセットを要約する。
論文 参考訳(メタデータ) (2023-12-05T14:14:27Z) - Pretraining Language Models with Text-Attributed Heterogeneous Graphs [28.579509154284448]
テキスト分散不均質グラフ(TAHG)におけるトポロジ的および異種情報を明確に考察する言語モデル(LM)のための新しい事前学習フレームワークを提案する。
本稿では、LMと補助異種グラフニューラルネットワークを協調最適化することにより、コンテキストグラフに関わるノードを予測するトポロジ対応事前学習タスクを提案する。
各種ドメインの3つのデータセット上でリンク予測とノード分類を行う。
論文 参考訳(メタデータ) (2023-10-19T08:41:21Z) - Using Large Language Models for Zero-Shot Natural Language Generation
from Knowledge Graphs [4.56877715768796]
我々は,ChatGPTがWebNLG 2020の課題に対して,最先端のパフォーマンスを達成していることを示す。
また、LLMが解析しているデータについて既に知っていることと、出力テキストの品質との間には大きな関連性があることも示している。
論文 参考訳(メタデータ) (2023-07-14T12:45:03Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - GENIUS: Sketch-based Language Model Pre-training via Extreme and
Selective Masking for Text Generation and Augmentation [76.7772833556714]
本稿では,スケッチを入力として用いた条件付きテキスト生成モデルGENIUSを紹介する。
genIUSは、スケッチの目的から新しく再構築された大規模なテキストコーパスで事前訓練されている。
様々な自然言語処理(NLP)タスクに対して, GENIUS は強力かつ使いやすいデータ拡張ツールとして利用できることを示す。
論文 参考訳(メタデータ) (2022-11-18T16:39:45Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z) - Fine-grained Video-Text Retrieval with Hierarchical Graph Reasoning [72.52804406378023]
ビデオとテキスト間のクロスモーダル検索は、Web上のビデオの急速な出現により、注目を集めている。
微細なビデオテキスト検索を改善するために,ビデオテキストマッチングをグローバル-ローカルレベルに分解する階層グラフ推論モデルを提案する。
論文 参考訳(メタデータ) (2020-03-01T03:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。