論文の概要: COVCOR20 at WNUT-2020 Task 2: An Attempt to Combine Deep Learning and
Expert rules
- arxiv url: http://arxiv.org/abs/2009.03191v1
- Date: Mon, 7 Sep 2020 15:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 02:56:27.224227
- Title: COVCOR20 at WNUT-2020 Task 2: An Attempt to Combine Deep Learning and
Expert rules
- Title(参考訳): covcor20 at wnut-2020 task 2: ディープラーニングとエキスパートルールを組み合わせた試み
- Authors: Ali H\"urriyeto\u{g}lu and Ali Safaya and Nelleke Oostdijk and Osman
Mutlu and Erdem Y\"or\"uk
- Abstract要約: WNUT-2020 Task 2の範囲内で,深層学習モデルと言語情報を用いたテキスト分類システムを開発した。
いずれのディープラーニングシステムも言語的に情報提供されたルールでシステムより優れていますが,3つのシステムの統合(出力)により,より優れたパフォーマンスを実現することが可能であることが分かりました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the scope of WNUT-2020 Task 2, we developed various text classification
systems, using deep learning models and one using linguistically informed
rules. While both of the deep learning systems outperformed the system using
the linguistically informed rules, we found that through the integration of
(the output of) the three systems a better performance could be achieved than
the standalone performance of each approach in a cross-validation setting.
However, on the test data the performance of the integration was slightly lower
than our best performing deep learning model. These results hardly indicate any
progress in line of integrating machine learning and expert rules driven
systems. We expect that the release of the annotation manuals and gold labels
of the test data after this workshop will shed light on these perplexing
results.
- Abstract(参考訳): WNUT-2020 Task 2の範囲内で,深層学習モデルと言語情報を用いたテキスト分類システムを開発した。
いずれの深層学習システムも,言語的にインフォームされたルールを用いたシステムよりも優れていたが,これらの3つのシステムの統合(アウトプット)によって,相互評価設定における各アプローチのスタンドアロンパフォーマンスよりも優れたパフォーマンスが得られることがわかった。
しかし、テストデータでは、統合の性能は私たちの最高のディープラーニングモデルよりもわずかに低かった。
これらの結果は、機械学習とエキスパートルール駆動システムの統合の進展を示すものはほとんどない。
このワークショップの後、アノテーションマニュアルとテストデータのゴールドラベルのリリースが、これらの混乱する結果に光を当てると期待しています。
関連論文リスト
- MarsEclipse at SemEval-2023 Task 3: Multi-Lingual and Multi-Label
Framing Detection with Contrastive Learning [21.616089539381996]
本稿では,SemEval-2023 Task 3 Subtask 2 on Framing Detectionについて述べる。
我々は,多言語環境下での大規模事前学習言語モデルの微調整に,マルチラベルのコントラスト損失を用いた。
本システムは,6言語のうち5言語について,公式テストセットと共有タスクリーダーボードで第1位にランクインした。
論文 参考訳(メタデータ) (2023-04-20T18:42:23Z) - Hybrid Rule-Neural Coreference Resolution System based on Actor-Critic
Learning [53.73316523766183]
コアレゾリューションシステムは2つの主要なタスクに取り組む必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクター・クリティカル・ラーニングに基づく複合ルール・ニューラル・コア参照解決システムを提案する。
論文 参考訳(メタデータ) (2022-12-20T08:55:47Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Neural Data-to-Text Generation Based on Small Datasets: Comparing the
Added Value of Two Semi-Supervised Learning Approaches on Top of a Large
Language Model [5.5542943143944665]
大規模言語モデルも補足されても,セミ教師付き学習が有効なのかは分かっていない。
その結果,半教師付き学習が多様性指標のスコアを高くすることがわかった。
論文 参考訳(メタデータ) (2022-07-14T11:53:04Z) - What are the best systems? New perspectives on NLP Benchmarking [10.27421161397197]
そこで本研究では,各タスクのパフォーマンスに基づいて,システムにランク付けする新しい手法を提案する。
社会的選択理論によって動機付けられ、各タスクによって誘導されるランクを集約することで最終システム順序付けが得られる。
本手法は, 平均集約法とは異なる, 最先端システム上での結論を導出することを示す。
論文 参考訳(メタデータ) (2022-02-08T11:44:20Z) - SLIP: Self-supervision meets Language-Image Pre-training [79.53764315471543]
自己指導型学習が視覚表現学習における言語指導の活用に役立つかどうかを考察する。
自己教師付き学習とCLIP事前学習を組み合わせたマルチタスク学習フレームワークSLIPを紹介する。
SLIPは、自己監督や言語監督よりも優れたパフォーマンスを享受しています。
論文 参考訳(メタデータ) (2021-12-23T18:07:13Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Building One-Shot Semi-supervised (BOSS) Learning up to Fully Supervised
Performance [0.0]
本研究では,Cifar-10とSVHNを用いた一発半教師付き学習(BOSS)の可能性を示す。
本手法は, クラスプロトタイプの精錬, クラスバランシング, 自己学習を組み合わせた手法である。
厳密な経験的評価は、ディープニューラルネットワークのトレーニングには大規模なデータセットのラベル付けは必要ないという証拠を提供する。
論文 参考訳(メタデータ) (2020-06-16T17:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。