論文の概要: TransGAT: Transformer-Based Graph Neural Networks for Multi-Dimensional Automated Essay Scoring
- arxiv url: http://arxiv.org/abs/2509.01640v1
- Date: Mon, 01 Sep 2025 17:33:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.800275
- Title: TransGAT: Transformer-Based Graph Neural Networks for Multi-Dimensional Automated Essay Scoring
- Title(参考訳): TransGAT:多次元自動評価スコーリングのためのトランスフォーマーベースグラフニューラルネットワーク
- Authors: Hind Aljuaid, Areej Alhothali, Ohoud Al-Zamzami, Hussein Assalahi,
- Abstract要約: エッセイ・ライティングは学生評価の重要な要素であるが、手動のスコアリングは労働集約的で一貫性がない。
近年、グラフニューラルネットワーク(GNN)を静的な単語埋め込みを用いて、文脈的意味を捉えない自動エッセイスコーリング(AES)に組み入れている。
本研究は, 微調整トランスフォーマーモデルとGNNを統合した新しい手法であるTransGATを提案する。
- 参考スコア(独自算出の注目度): 0.7039739305668745
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Essay writing is a critical component of student assessment, yet manual scoring is labor-intensive and inconsistent. Automated Essay Scoring (AES) offers a promising alternative, but current approaches face limitations. Recent studies have incorporated Graph Neural Networks (GNNs) into AES using static word embeddings that fail to capture contextual meaning, especially for polysemous words. Additionally, many methods rely on holistic scoring, overlooking specific writing aspects such as grammar, vocabulary, and cohesion. To address these challenges, this study proposes TransGAT, a novel approach that integrates fine-tuned Transformer models with GNNs for analytic scoring. TransGAT combines the contextual understanding of Transformers with the relational modeling strength of Graph Attention Networks (GAT). It performs two-stream predictions by pairing each fine-tuned Transformer (BERT, RoBERTa, and DeBERTaV3) with a separate GAT. In each pair, the first stream generates essay-level predictions, while the second applies GAT to Transformer token embeddings, with edges constructed from syntactic dependencies. The model then fuses predictions from both streams to produce the final analytic score. Experiments on the ELLIPSE dataset show that TransGAT outperforms baseline models, achieving an average Quadratic Weighted Kappa (QWK) of 0.854 across all analytic scoring dimensions. These findings highlight the potential of TransGAT to advance AES systems.
- Abstract(参考訳): エッセイ・ライティングは学生評価の重要な要素であるが、手動のスコアリングは労働集約的で一貫性がない。
Automated Essay Scoring (AES)は有望な代替手段を提供するが、現在のアプローチは制限に直面している。
近年、グラフニューラルネットワーク(GNN)を静的な単語埋め込みを用いてAESに組み込んでおり、特に多文語の文脈的意味を捉えていない。
さらに、多くの手法は、文法、語彙、結束といった特定の記述面を見渡すことで、全体論的な採点に依存している。
これらの課題に対処するために, 微調整トランスフォーマーモデルとGNNを統合した新しい手法であるTransGATを提案する。
TransGATは、トランスフォーマーの文脈的理解とグラフ注意ネットワーク(GAT)のリレーショナルモデリング強度を組み合わせる。
細調整されたトランスフォーマー(BERT、RoBERTa、DeBERTaV3)を別々のGATでペアリングすることで、2ストリーム予測を行う。
各ペアにおいて、第1ストリームはエッセイレベルの予測を生成し、第2ストリームはTransformerトークンの埋め込みにGATを適用し、エッジは構文上の依存関係から構築される。
モデルが両方のストリームからの予測を融合して最終的な分析スコアを生成する。
ELIPSEデータセットを用いた実験では、TransGATはベースラインモデルより優れており、解析的評価次元全体で平均0.854の4次重み付きカッパ(QWK)を達成している。
これらの知見は,TransGATがAESシステムを進展させる可能性を示している。
関連論文リスト
- Contextual Graph Transformer: A Small Language Model for Enhanced Engineering Document Information Extraction [0.0]
Contextual Graph Transformer(CGT)は、グラフニューラルネットワーク(GNN)とトランスフォーマーを組み合わせたハイブリッドニューラルネットワークである。
CGTはシーケンシャル、スキップグラム、セマンティック類似性エッジを用いて入力トークン上の動的グラフを構築する。
GPT-2やBERTのようなベースラインよりも優れており、パラメータが62.4%少ないGPT-2よりも24.7%高い精度である。
論文 参考訳(メタデータ) (2025-08-04T15:41:35Z) - TWSSenti: A Novel Hybrid Framework for Topic-Wise Sentiment Analysis on Social Media Using Transformer Models [0.0]
本研究では,感情分類の精度と頑健性を改善するために,トランスフォーマーモデルを組み合わせたハイブリッドフレームワークについて検討する。
このフレームワークは、ノイズの多いデータ、コンテキストのあいまいさ、さまざまなデータセット間の一般化といった課題に対処する。
この研究は、ソーシャルメディアのモニタリング、顧客感情分析、世論の追跡など、現実世界のタスクへの適用性を強調している。
論文 参考訳(メタデータ) (2025-04-14T05:44:11Z) - Pre-trained Graphformer-based Ranking at Web-scale Search (Extended Abstract) [56.55728466130238]
本稿では,変換器の回帰能力をGNNのリンク予測強度と統合することを目的とした新しいMPGrafモデルを提案する。
我々は、MPGrafの性能を厳格に評価するために、大規模なオフラインおよびオンライン実験を行っている。
論文 参考訳(メタデータ) (2024-09-25T03:33:47Z) - Unlocking Bias Detection: Leveraging Transformer-Based Models for Content Analysis [1.8692054990918079]
CBDT (Contextualized Bi-Directional Dual Transformer) textcolorgreenfaLeaf 分類器を提案する。
テキスト内のバイアスを特定し、特定するために、これらのモデルをトレーニングするためのデータセットを用意しました。
様々なデータセットを用いて評価した結果, CBDT のテキストカラーグリーンの有効性は, 偏りのある物語と中性な物語を区別し, 特定の偏りのある言葉を識別する上で有効であることがわかった。
論文 参考訳(メタデータ) (2023-09-30T12:06:04Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text
Extractive Summarization [57.798070356553936]
HETFORMERはトランスフォーマーをベースとした事前学習モデルであり、抽出要約のための多粒度スパースアテンションを持つ。
単一文書と複数文書の要約タスクの実験から,HETFORMERがルージュF1の最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-12T22:42:31Z) - MeetSum: Transforming Meeting Transcript Summarization using
Transformers! [2.1915057426589746]
本稿では,Transformer ベースの Pointer Generator Network を用いて要約文を生成する。
このモデルは、エンコーダとデコーダとして2つのLSTMを使用し、入力されたテキストから単語をコピーするポインタネットワークと、語彙外単語を生成するジェネレータネットワークを使用する。
本稿では,ニュース要約データセット上でモデルをトレーニングし,ゼロショット学習を用いてミーティングデータセット上でテストすることで,AMIミーティングデータセット上でのトレーニングよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-08-13T16:34:09Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。