論文の概要: Enhancing Persona Classification in Dialogue Systems: A Graph Neural Network Approach
- arxiv url: http://arxiv.org/abs/2412.13283v1
- Date: Tue, 17 Dec 2024 19:27:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:24:54.767208
- Title: Enhancing Persona Classification in Dialogue Systems: A Graph Neural Network Approach
- Title(参考訳): 対話システムにおけるペルソナ分類の強化:グラフニューラルネットワークによるアプローチ
- Authors: Konstantin Zaitsev,
- Abstract要約: 本研究では,テキスト埋め込みとグラフニューラルネットワーク(GNN)を組み合わせた効果的なペルソナ分類手法を提案する。
専用のペルソナ分類データセットがないため、モデルトレーニングと評価を容易にするために手動で注釈付きデータセットを作成します。
我々のアプローチ、特にGNNの統合は、特に限られたデータにおいて、分類性能を大幅に改善する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In recent years, Large Language Models (LLMs) gain considerable attention for their potential to enhance personalized experiences in virtual assistants and chatbots. A key area of interest is the integration of personas into LLMs to improve dialogue naturalness and user engagement. This study addresses the challenge of persona classification, a crucial component in dialogue understanding, by proposing a framework that combines text embeddings with Graph Neural Networks (GNNs) for effective persona classification. Given the absence of dedicated persona classification datasets, we create a manually annotated dataset to facilitate model training and evaluation. Our method involves extracting semantic features from persona statements using text embeddings and constructing a graph where nodes represent personas and edges capture their similarities. The GNN component uses this graph structure to propagate relevant information, thereby improving classification performance. Experimental results show that our approach, in particular the integration of GNNs, significantly improves classification performance, especially with limited data. Our contributions include the development of a persona classification framework and the creation of a dataset.
- Abstract(参考訳): 近年、Large Language Models (LLMs) は、仮想アシスタントやチャットボットにおけるパーソナライズされたエクスペリエンスを強化する可能性に対して、かなりの注目を集めている。
重要な分野は、対話の自然性とユーザエンゲージメントを改善するために、ペルソナをLLMに統合することである。
本研究では,対話理解における重要な要素であるペルソナ分類の課題について,テキスト埋め込みとグラフニューラルネットワーク(GNN)を組み合わせて効果的なペルソナ分類を行うフレームワークを提案する。
専用のペルソナ分類データセットがないため、モデルトレーニングと評価を容易にするために手動で注釈付きデータセットを作成します。
提案手法では,テキスト埋め込みを用いたペルソナ文から意味的特徴を抽出し,ノードがペルソナとエッジが類似点をキャプチャするグラフを構築する。
GNNコンポーネントはこのグラフ構造を用いて関連情報を伝達し、分類性能を向上させる。
実験結果から,本手法,特にGNNの統合は,特に限られたデータにおいて,分類性能を著しく向上させることが明らかとなった。
私たちのコントリビューションには、ペルソナ分類フレームワークの開発とデータセットの作成が含まれています。
関連論文リスト
- Large Language Model-based Augmentation for Imbalanced Node Classification on Text-Attributed Graphs [13.42259312243504]
グラフ上のノード分類は、しばしばクラス不均衡に悩まされ、現実のアプリケーションにおいてバイアスのある予測と重大なリスクをもたらす。
本研究では,テキスト分散グラフ(LA-TAG)を用いた大規模言語モデルに基づく拡張手法を提案する。
論文 参考訳(メタデータ) (2024-10-22T10:36:15Z) - Subgraph Clustering and Atom Learning for Improved Image Classification [4.499833362998488]
本稿では,特徴抽出のための畳み込みニューラルネットワーク(CNN)と構造モデリングのためのグラフニューラルネットワーク(GNN)の長所を融合した,新しいハイブリッド画像分類モデルであるグラフサブグラフネットワーク(GSN)を提案する。
GSNはk平均クラスタリングを使用してグラフノードをクラスタにグループ化し、サブグラフの作成を容易にする。
これらの部分グラフを使用して、辞書学習のための代表原子を学習し、スパースでクラス区別可能な特徴の識別を可能にする。
論文 参考訳(メタデータ) (2024-07-20T06:32:00Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Similarity-based Neighbor Selection for Graph LLMs [43.176381523196426]
類似性に基づく近隣選択(SNS)について紹介する。
SNSは、選択した隣人の品質を改善し、グラフ表現を改善し、オーバースカッシングやヘテロフィリーといった問題を緩和する。
インダクティブでトレーニングのないアプローチとして、SNSは従来のGNN手法よりも優れた一般化とスケーラビリティを示している。
論文 参考訳(メタデータ) (2024-02-06T05:29:05Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - ConGraT: Self-Supervised Contrastive Pretraining for Joint Graph and Text Embeddings [20.25180279903009]
テキスト分散グラフ(TAG)におけるテキストとノードの分離表現を共同学習するためのContrastive Graph-Text Pretraining(ConGraT)を提案する。
提案手法は言語モデル(LM)とグラフニューラルネットワーク(GNN)を訓練し,CLIPにインスパイアされたバッチワイドコントラスト学習目標を用いて,それらの表現を共通の潜在空間に整列させる。
実験により、ConGraTは、ノードとテキストのカテゴリ分類、リンク予測、言語モデリングなど、さまざまな下流タスクのベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-23T17:53:30Z) - CADGE: Context-Aware Dialogue Generation Enhanced with Graph-Structured Knowledge Aggregation [25.56539617837482]
コンテキスト対応グラフアテンションモデル(Context-aware GAT)を提案する。
これは、コンテキスト強化された知識集約機構を通じて、関連する知識グラフからグローバルな特徴を同化する。
実験により,本フレームワークは従来のGNNベース言語モデルよりも性能が優れていることが示された。
論文 参考訳(メタデータ) (2023-05-10T16:31:35Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Mining Implicit Entity Preference from User-Item Interaction Data for
Knowledge Graph Completion via Adversarial Learning [82.46332224556257]
本稿では,知識グラフ補完タスクにおけるユーザインタラクションデータを活用することで,新たな逆学習手法を提案する。
我々のジェネレータはユーザインタラクションデータから分離されており、識別器の性能を向上させるのに役立ちます。
利用者の暗黙の実体的嗜好を発見するために,グラフニューラルネットワークに基づく精巧な協調学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-03-28T05:47:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。