論文の概要: EduRABSA: An Education Review Dataset for Aspect-based Sentiment Analysis Tasks
- arxiv url: http://arxiv.org/abs/2508.17008v1
- Date: Sat, 23 Aug 2025 12:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.296769
- Title: EduRABSA: An Education Review Dataset for Aspect-based Sentiment Analysis Tasks
- Title(参考訳): EduRABSA: 視点に基づく感性分析タスクのための教育レビューデータセット
- Authors: Yan Cathy Hua, Paul Denny, Jörg Wicker, Katerina Taskova,
- Abstract要約: ABSAの教育評価データセットであるEduRABSA(Education Review ABSA)について紹介する。
英語の3つのレビュー科目(コース、教員、大学)をカバーしている。
また、オフラインで、軽量で、インストール不要な手動データアノテーションツールであるASQE-DPT(Data Processing Tool)も共有しています。
- 参考スコア(独自算出の注目度): 2.622434937753741
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Every year, most educational institutions seek and receive an enormous volume of text feedback from students on courses, teaching, and overall experience. Yet, turning this raw feedback into useful insights is far from straightforward. It has been a long-standing challenge to adopt automatic opinion mining solutions for such education review text data due to the content complexity and low-granularity reporting requirements. Aspect-based Sentiment Analysis (ABSA) offers a promising solution with its rich, sub-sentence-level opinion mining capabilities. However, existing ABSA research and resources are very heavily focused on the commercial domain. In education, they are scarce and hard to develop due to limited public datasets and strict data protection. A high-quality, annotated dataset is urgently needed to advance research in this under-resourced area. In this work, we present EduRABSA (Education Review ABSA), the first public, annotated ABSA education review dataset that covers three review subject types (course, teaching staff, university) in the English language and all main ABSA tasks, including the under-explored implicit aspect and implicit opinion extraction. We also share ASQE-DPT (Data Processing Tool), an offline, lightweight, installation-free manual data annotation tool that generates labelled datasets for comprehensive ABSA tasks from a single-task annotation. Together, these resources contribute to the ABSA community and education domain by removing the dataset barrier, supporting research transparency and reproducibility, and enabling the creation and sharing of further resources. The dataset, annotation tool, and scripts and statistics for dataset processing and sampling are available at https://github.com/yhua219/edurabsa_dataset_and_annotation_tool.
- Abstract(参考訳): 毎年、ほとんどの教育機関は、コース、教育、総合的な経験について、学生から膨大な量のテキストフィードバックを求め、受け取っています。
しかし、この生のフィードバックを有用な洞察に変えることは、決して簡単ではない。
コンテンツ複雑性と低粒度レポート要求のため、このような教育レビューテキストデータに自動意見マイニングソリューションを採用することは長年にわたる課題である。
Aspect-based Sentiment Analysis (ABSA)は、リッチでサブ文レベルの意見マイニング機能を備えた有望なソリューションを提供する。
しかし、既存のABSAの研究と資源は商業領域に重点を置いている。
教育では、限られた公開データセットと厳格なデータ保護のため、開発が困難である。
このアンダーリソース領域の研究を進めるためには、高品質な注釈付きデータセットが緊急に必要である。
本研究は,英語における3つのレビュー科目(コース,教員,大学)と,未調査の暗黙的側面と暗黙的意見抽出を含む主要なABSA課題を網羅した,最初の公的な注釈付きABSA教育レビューデータセットであるEduRABSA(Education Review ABSA)を提示する。
AsQE-DPT(Data Processing Tool)は、単一タスクのアノテーションから包括的なABSAタスクのためのラベル付きデータセットを生成する、オフラインで軽量でインストール不要な手動データアノテーションツールである。
これらのリソースは、データセット障壁を取り除き、研究の透明性と再現性をサポートし、さらなるリソースの作成と共有を可能にすることによって、ABSAコミュニティと教育領域に貢献する。
データセット、アノテーションツール、データセット処理とサンプリングのためのスクリプトと統計はhttps://github.com/yhua219/edurabsa_dataset_and_annotation_tool.comから入手できる。
関連論文リスト
- M-ABSA: A Multilingual Dataset for Aspect-Based Sentiment Analysis [23.523947343171926]
M-ABSAは、7つのドメインと21の言語にまたがる包括的なデータセットである。
私たちの主な焦点は三重項抽出であり、アスペクトの項、アスペクトのカテゴリ、感情の極性を特定することである。
実験により,このデータセットは多言語・多ドメイン移動学習などの多様な評価タスクを可能にすることがわかった。
論文 参考訳(メタデータ) (2025-02-17T14:16:01Z) - ROAST: Review-level Opinion Aspect Sentiment Target Joint Detection for ABSA [50.90538760832107]
本研究は新たな課題であるROAST(Review-Level Opinion Aspect Sentiment Target)を提示する。
ROASTは、文章レベルのABSAとテキストレベルのABSAのギャップを埋めようとしている。
利用可能なデータセットを拡張してROASTを有効にし、以前の研究で指摘された欠点に対処します。
論文 参考訳(メタデータ) (2024-05-30T17:29:15Z) - A Systematic Review of Aspect-based Sentiment Analysis: Domains, Methods, and Trends [2.781593421115434]
アスペクトベースの感情分析(ABSA)は、アスペクトとその関連する意見をテキストから識別する、きめ細かいタイプの感情分析である。
デジタル評価されたテキストデータの増加に伴い、ABSAはより詳細で目標とする洞察を掘り下げる能力で人気を博した。
本稿では,これらの基本コンポーネント間の傾向と高レベルな関係に着目したABSA研究の体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-11-16T06:01:47Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Survey of Aspect-based Sentiment Analysis Datasets [55.61047894397937]
アスペクトベースの感情分析(ABSA)は、ユーザ生成レビューの分析を必要とする自然言語処理の問題である。
ABSAの多くの散在したコーパスは、研究者が特定のABSAサブタスクに適したコーパスを素早く特定することを困難にしている。
本研究では,自律型ABSAシステムの学習・評価に使用できるコーパスデータベースを提案する。
論文 参考訳(メタデータ) (2022-04-11T16:23:36Z) - Understanding Pre-trained BERT for Aspect-based Sentiment Analysis [71.40586258509394]
本稿では、アスペクトベース感情分析(ABSA)におけるタスクに対するBERTのレビューから得られた事前学習された隠れ表現について分析する。
アスペクトや意見のアノテーションなしでラベル付けされていないコーパスでトレーニングされた(マスクされた)言語モデルの一般的なプロキシタスクが、ABSAの下流タスクにどのように重要な機能を提供するかは明らかではない。
論文 参考訳(メタデータ) (2020-10-31T02:21:43Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。