論文の概要: BaIT: Barometer for Information Trustworthiness
- arxiv url: http://arxiv.org/abs/2206.07535v1
- Date: Wed, 15 Jun 2022 13:42:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 23:30:42.470671
- Title: BaIT: Barometer for Information Trustworthiness
- Title(参考訳): BaIT:情報信頼性のためのバロメーター
- Authors: Ois\'in Nolan, Jeroen van Mourik, Callum Tilbury
- Abstract要約: 本稿では,FNC-1偽ニュース分類タスクに対する新しいアプローチを提案する。
同様のNLPタスクからトレーニング済みのエンコーダモデルを採用する。
このアプローチを用いた2つのニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new approach to the FNC-1 fake news classification task
which involves employing pre-trained encoder models from similar NLP tasks,
namely sentence similarity and natural language inference, and two neural
network architectures using this approach are proposed. Methods in data
augmentation are explored as a means of tackling class imbalance in the
dataset, employing common pre-existing methods and proposing a method for
sample generation in the under-represented class using a novel sentence
negation algorithm. Comparable overall performance with existing baselines is
achieved, while significantly increasing accuracy on an under-represented but
nonetheless important class for FNC-1.
- Abstract(参考訳): 本稿では,類似したNLPタスク,すなわち文類似性や自然言語推論から事前学習したエンコーダモデルを取り入れたFNC-1フェイクニュース分類タスクに対する新しいアプローチを提案し,本手法を用いたニューラルネットワークアーキテクチャを提案する。
データ拡張の手法は、データセットにおけるクラス不均衡に対処し、共通の既存手法を用いて、新しい文否定アルゴリズムを用いて、表現下クラスにおけるサンプル生成方法を提案する。
既存のベースラインと比較して総合的な性能は達成されるが、FNC-1の下位表現では精度は著しく向上する。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Active Weighted Aging Ensemble for Drifted Data Stream Classification [2.277447144331876]
概念ドリフトは分類モデルの性能を不安定化し、その品質を著しく低下させる。
提案手法は実データストリームと実データストリームの両方を用いて計算機実験により評価されている。
その結果,提案アルゴリズムは最先端手法よりも高品質であることが確認された。
論文 参考訳(メタデータ) (2021-12-19T13:52:53Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z) - Robust Classification of High-Dimensional Spectroscopy Data Using Deep
Learning and Data Synthesis [0.5801044612920815]
分光データのバイナリ分類における局所接続型ニューラルネットワーク(NN)の新たな応用を提案する。
2段階の分類プロセスは、2段階の分類パラダイムと1段階の分類パラダイムの代替として提示される。
論文 参考訳(メタデータ) (2020-03-26T11:33:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。