論文の概要: UKARA 1.0 Challenge Track 1: Automatic Short-Answer Scoring in Bahasa
Indonesia
- arxiv url: http://arxiv.org/abs/2002.12540v1
- Date: Fri, 28 Feb 2020 04:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:14:08.962654
- Title: UKARA 1.0 Challenge Track 1: Automatic Short-Answer Scoring in Bahasa
Indonesia
- Title(参考訳): UKARA 1.0 チャレンジトラック1:バハサ・インドネシアでのショートアンサーの自動スコーリング
- Authors: Ali Akbar Septiandri, Yosef Ardhito Winatmoko
- Abstract要約: 自動エッセイ評価におけるUKARA 1.0チャレンジの3位となるソリューションについて述べる。
このタスクは、2つのデータセットのバイナリ分類問題と、2つの異なる質問からの回答から構成される。
最終的に、2つのデータセットに2つの異なるモデルを使用しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe our third-place solution to the UKARA 1.0 challenge on automated
essay scoring. The task consists of a binary classification problem on two
datasets | answers from two different questions. We ended up using two
different models for the two datasets. For task A, we applied a random forest
algorithm on features extracted using unigram with latent semantic analysis
(LSA). On the other hand, for task B, we only used logistic regression on
TF-IDF features. Our model results in F1 score of 0.812.
- Abstract(参考訳): 自動エッセイ評価におけるUKARA 1.0チャレンジの3位となるソリューションについて述べる。
このタスクは、2つのデータセットのバイナリ分類問題と、2つの異なる質問からの回答から構成される。
2つのデータセットに2つの異なるモデルを使用しました。
タスクaでは,ungram with latent semantic analysis (lsa)を用いて抽出した特徴にランダムフォレストアルゴリズムを適用した。
一方,タスクBでは,TF-IDFの特徴に対してのみロジスティック回帰を用いた。
その結果,F1スコアは0.812。
関連論文リスト
- OpenAI-o1 AB Testing: Does the o1 model really do good reasoning in math problem solving? [2.851415653352522]
OpenAIによるOrion-1モデルは、以前の大規模言語モデルよりも堅牢な論理的推論能力を持つと言われている。
IMO(International Mathematics Olympiad)問題からなる2つのデータセットを用いて比較実験を行った。
モデルが問題や解の記憶に依存していることを示す重要な証拠は存在しないと結論付けている。
論文 参考訳(メタデータ) (2024-11-09T14:47:52Z) - Mavericks at ArAIEval Shared Task: Towards a Safer Digital Space --
Transformer Ensemble Models Tackling Deception and Persuasion [0.0]
本稿では,各課題のタスク1-Aとタスク2-Aのアプローチについて述べる。
タスクは、与えられたバイナリ分類問題に対して、ツイートとニュース記事のマルチジャンルスニペットを使用する。
タスク1-A(8位)では0.742、タスク2-A(7位)では0.901のマイクロF1スコアを達成した。
論文 参考訳(メタデータ) (2023-11-30T17:26:57Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Question-Answer Sentence Graph for Joint Modeling Answer Selection [122.29142965960138]
我々は,質問文,質問文,回答文のペア間のスコアを計算するための最先端(SOTA)モデルを訓練し,統合する。
オンライン推論は、目に見えないクエリのAS2タスクを解決するために実行される。
論文 参考訳(メタデータ) (2022-02-16T05:59:53Z) - Sequence-level self-learning with multiple hypotheses [53.04725240411895]
我々は、自動音声認識(ASR)のためのアテンションベースシーケンス・ツー・シーケンス(seq2seq)モデルを用いた新しい自己学習手法を開発した。
従来の教師なし学習手法とは対照的に,我々はEmphmulti-task Learning(MTL)フレームワークを採用する。
実験の結果,本手法は,英語データのみを用いてトレーニングしたベースラインモデルと比較して,英文音声データのWERを14.55%から10.36%に削減できることがわかった。
論文 参考訳(メタデータ) (2021-12-10T20:47:58Z) - Detecting Handwritten Mathematical Terms with Sensor Based Data [71.84852429039881]
本稿では,手書きの数学的用語を自動分類する,スタビロによるUbiComp 2021チャレンジの解を提案する。
入力データセットには異なるライターのデータが含まれており、ラベル文字列は合計15の異なる文字から構成されている。
論文 参考訳(メタデータ) (2021-09-12T19:33:34Z) - Reference-based Weak Supervision for Answer Sentence Selection using Web
Data [87.18646699292293]
完全自動大規模データパイプラインであるReference-based Weak Supervision (RWS)を紹介する。
RWSは豊富なWebデータから高品質な教師付き回答を抽出する。
我々の実験は、生成したデータが常にTANDAを支えていることを示している。
論文 参考訳(メタデータ) (2021-04-18T19:41:17Z) - Modeling Context in Answer Sentence Selection Systems on a Latency
Budget [87.45819843513598]
本稿では,AS2モデルに文脈情報を効率的に組み込む手法を提案する。
各回答候補について、まず教師なし類似性手法を用いて、その原文から関連文を抽出する。
マルチウェイアテンションアーキテクチャを活用してコンテキストを効率的にエンコードする私たちのベストなアプローチは、AS2の非問合せ状態よりも6%から11%改善し、システムレイテンシに最小限の影響を与えます。
論文 参考訳(メタデータ) (2021-01-28T16:24:48Z) - Detecting Hostile Posts using Relational Graph Convolutional Network [1.8734449181723827]
この研究は、ソーシャルメディアプラットフォーム上でヒンディー語で敵対的な投稿を検出するためにAAAI@2021が実施したコンテストへの提出に基づいている。
ここでは,畳み込みネットワークを用いた敵対的ポスト分類のためのモデルを提案する。
提案されたモデルは、与えられたデータセット上のGoogleのXLM-RoBERTaと同等に実行されている。
XLMRobertaを用いた分類システムでは, 細粒度分類では2位であった。
論文 参考訳(メタデータ) (2021-01-10T06:50:22Z) - Stacking Neural Network Models for Automatic Short Answer Scoring [0.0]
本稿では,ニューラルネットワークとXGBoostに基づく重ね合わせモデルを用いて文埋め込み機能を持つ分類プロセスを提案する。
ベストモデルではF1スコアの0.821が、同じデータセットで前の作業を上回った。
論文 参考訳(メタデータ) (2020-10-21T16:00:09Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。