論文の概要: COVCOR20 at WNUT-2020 Task 2: An Attempt to Combine Deep Learning and
Expert rules
- arxiv url: http://arxiv.org/abs/2009.03191v1
- Date: Mon, 7 Sep 2020 15:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:56:27.224227
- Title: COVCOR20 at WNUT-2020 Task 2: An Attempt to Combine Deep Learning and
Expert rules
- Title(参考訳): covcor20 at wnut-2020 task 2: ディープラーニングとエキスパートルールを組み合わせた試み
- Authors: Ali H\"urriyeto\u{g}lu and Ali Safaya and Nelleke Oostdijk and Osman
Mutlu and Erdem Y\"or\"uk
- Abstract要約: WNUT-2020 Task 2の範囲内で,深層学習モデルと言語情報を用いたテキスト分類システムを開発した。
いずれのディープラーニングシステムも言語的に情報提供されたルールでシステムより優れていますが,3つのシステムの統合(出力)により,より優れたパフォーマンスを実現することが可能であることが分かりました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the scope of WNUT-2020 Task 2, we developed various text classification
systems, using deep learning models and one using linguistically informed
rules. While both of the deep learning systems outperformed the system using
the linguistically informed rules, we found that through the integration of
(the output of) the three systems a better performance could be achieved than
the standalone performance of each approach in a cross-validation setting.
However, on the test data the performance of the integration was slightly lower
than our best performing deep learning model. These results hardly indicate any
progress in line of integrating machine learning and expert rules driven
systems. We expect that the release of the annotation manuals and gold labels
of the test data after this workshop will shed light on these perplexing
results.
- Abstract(参考訳): WNUT-2020 Task 2の範囲内で,深層学習モデルと言語情報を用いたテキスト分類システムを開発した。
いずれの深層学習システムも,言語的にインフォームされたルールを用いたシステムよりも優れていたが,これらの3つのシステムの統合(アウトプット)によって,相互評価設定における各アプローチのスタンドアロンパフォーマンスよりも優れたパフォーマンスが得られることがわかった。
しかし、テストデータでは、統合の性能は私たちの最高のディープラーニングモデルよりもわずかに低かった。
これらの結果は、機械学習とエキスパートルール駆動システムの統合の進展を示すものはほとんどない。
このワークショップの後、アノテーションマニュアルとテストデータのゴールドラベルのリリースが、これらの混乱する結果に光を当てると期待しています。
関連論文リスト
- Improving Multi-Domain Task-Oriented Dialogue System with Offline Reinforcement Learning [5.18578230548982]
タスク指向対話(TOD)システムは、対話を通じてユーザ定義タスクを達成するように設計されている。
本稿では,統合事前学習型言語モデルであるGPT2をベースモデルとして利用するTODシステムを提案する。
本モデルでは, ベースラインと比較して情報提供率を1.60%, 成功率を3.17%向上させる。
論文 参考訳(メタデータ) (2024-11-08T05:43:40Z) - Pronunciation Assessment with Multi-modal Large Language Models [10.35401596425946]
大規模言語モデル(LLM)に基づくスコアリングシステムを提案する。
音声エンコーダは、まず学習者の音声を文脈的特徴にマッピングする。
アダプタ層は、これらの機能を潜在空間に埋め込まれたテキストに合わせるように変換する。
論文 参考訳(メタデータ) (2024-07-12T12:16:14Z) - OAEI Machine Learning Dataset for Online Model Generation [0.6472397166280683]
オントロジーアライメント評価イニシアチブ(OAEI)によるオントロジーと知識グラフマッチングシステムの評価
OAEIトラックのほとんどに対して、トレーニング、検証、テストセットを含むデータセットを導入します。
論文 参考訳(メタデータ) (2024-04-29T09:33:53Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - What are the best systems? New perspectives on NLP Benchmarking [10.27421161397197]
そこで本研究では,各タスクのパフォーマンスに基づいて,システムにランク付けする新しい手法を提案する。
社会的選択理論によって動機付けられ、各タスクによって誘導されるランクを集約することで最終システム順序付けが得られる。
本手法は, 平均集約法とは異なる, 最先端システム上での結論を導出することを示す。
論文 参考訳(メタデータ) (2022-02-08T11:44:20Z) - SLIP: Self-supervision meets Language-Image Pre-training [79.53764315471543]
自己指導型学習が視覚表現学習における言語指導の活用に役立つかどうかを考察する。
自己教師付き学習とCLIP事前学習を組み合わせたマルチタスク学習フレームワークSLIPを紹介する。
SLIPは、自己監督や言語監督よりも優れたパフォーマンスを享受しています。
論文 参考訳(メタデータ) (2021-12-23T18:07:13Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。