論文の概要: Unsupervised Technique To Conversational Machine Reading
- arxiv url: http://arxiv.org/abs/2106.15247v1
- Date: Tue, 29 Jun 2021 10:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 01:30:23.414954
- Title: Unsupervised Technique To Conversational Machine Reading
- Title(参考訳): 対話型機械読解のための教師なし技術
- Authors: Peter Ochieng and Dennis Mugambi
- Abstract要約: 教師なし学習技術は、CMRの規則抽出と追加モジュールに使用できる。
現在最高のCMRツールと比較すると,マイクロ平均精度が3.3%,マクロ平均精度が1.4%向上している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Conversational machine reading (CMR) tools have seen a rapid progress in the
recent past. The current existing tools rely on the supervised learning
technique which require labeled dataset for their training. The supervised
technique necessitates that for every new rule text, a manually labeled dataset
must be created. This is tedious and error prone. This paper introduces and
demonstrates how unsupervised learning technique can be applied in the
development of CMR. Specifically, we demonstrate how unsupervised learning can
be used in rule extraction and entailment modules of CMR. Compared to the
current best CMR tool, our developed framework reports 3.3% improvement in
micro averaged accuracy and 1.4 % improvement in macro averaged accuracy.
- Abstract(参考訳): 会話型機械読取(cmr)ツールは近年急速に進歩している。
現在の既存のツールは、トレーニングにラベル付きデータセットを必要とする教師付き学習技術に依存している。
教師ありのテクニックでは、新しいルールテキストごとに手動でラベル付きデータセットを作成する必要がある。
これは面倒でエラーが多い。
本稿では,教師なし学習技術がCMRの発展にどのように応用できるかを紹介する。
具体的には,CMRのルール抽出と包含モジュールにおいて,教師なし学習がいかに活用できるかを示す。
現在最高のCMRツールと比較すると,マイクロ平均精度が3.3%,マクロ平均精度が1.4%向上している。
関連論文リスト
- TÜLU 3: Pushing Frontiers in Open Language Model Post-Training [94.14908801708049]
我々は、完全にオープンな最先端の訓練後モデルであるT"ULU 3を紹介する。
T"ULU 3はLlama 3.1ベースモデルをベースにしており、Llama 3.1、Qwen 2.5、Mistral、さらにGPT-4o-mini、Claude 3.5-Haikuといったクローズドモデルにも勝っている。
論文 参考訳(メタデータ) (2024-11-22T18:44:04Z) - Towards Learning Abductive Reasoning using VSA Distributed Representations [56.31867341825068]
本稿では,文脈認識モデルを用いた帰納的ルール学習手法を提案する。
ARLCは、誘引的推論のための、新しくより広く適用可能な訓練目標を特徴としている。
プログラムされた知識の上に実例から漸進的に学習することで,ARLCのポストプログラミングトレーニングに対する堅牢性を示す。
論文 参考訳(メタデータ) (2024-06-27T12:05:55Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - DetectLLM: Leveraging Log Rank Information for Zero-Shot Detection of
Machine-Generated Text [26.02072055825044]
ログランク情報を利用して、機械生成テキストを検出する新しいゼロショット手法を2つ導入する。
ひとつは高速で効率のよい DetectLLM-LRR で、もうひとつは DetectLLM-NPR と呼ばれ、より正確だが摂動が必要なため遅い。
3つのデータセットと7つの言語モデルによる実験により,提案手法は3.9点,1.75点のAUROC点を絶対的に改善することを確認した。
論文 参考訳(メタデータ) (2023-05-23T11:18:30Z) - Improving Representational Continuity via Continued Pretraining [76.29171039601948]
トランスファーラーニングコミュニティ(LP-FT)は、ナイーブトレーニングやその他の継続的な学習方法よりも優れている。
LP-FTは、リアルタイム衛星リモートセンシングデータセット(FMoW)における忘れを減らす。
LP-FTの変種は、NLP連続学習ベンチマークで最先端の精度を得る。
論文 参考訳(メタデータ) (2023-02-26T10:39:38Z) - InfoGram and Admissible Machine Learning [0.0]
本稿では、新しい情報理論学習フレームワーク(許容機械学習)とアルゴリズムリスク管理ツール(InfoGram、L-features、ALFA-testing)を紹介する。
我々は、金融セクター、バイオメディカルリサーチ、マーケティングキャンペーン、刑事司法制度など、いくつかの実データ例を用いて、我々のアプローチを実証してきた。
論文 参考訳(メタデータ) (2021-08-17T00:04:38Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - On the Marginal Benefit of Active Learning: Does Self-Supervision Eat
Its Cake? [31.563514432259897]
本稿では,自己指導型事前学習,能動的学習,一貫性型自己学習を統合した新しい枠組みを提案する。
i) 自己指導型事前学習は、特に少数レーベル体制において、セミ教師付き学習を大幅に改善する。
我々は、最先端のS4L技術と組み合わせることで、最先端のアクティブな学習アルゴリズムのさらなるメリットを観察できない。
論文 参考訳(メタデータ) (2020-11-16T17:34:55Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。