論文の概要: SepLL: Separating Latent Class Labels from Weak Supervision Noise
- arxiv url: http://arxiv.org/abs/2210.13898v1
- Date: Tue, 25 Oct 2022 10:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:25:23.558659
- Title: SepLL: Separating Latent Class Labels from Weak Supervision Noise
- Title(参考訳): sepll: 潜在クラスラベルを弱い監督ノイズから分離する
- Authors: Andreas Stephan, Vasiliki Kougia and Benjamin Roth
- Abstract要約: 弱い教師付き学習では、ラベル付け機能は自動的にデータサンプルにラベルを割り当て、しばしばうるさい。
本研究では,2種類の補完情報を分離し,弱いラベルから学習する手法を提案する。
我々のモデルは最先端技術と競合し、新しい最高の平均性能をもたらす。
- 参考スコア(独自算出の注目度): 4.730767228515796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the weakly supervised learning paradigm, labeling functions automatically
assign heuristic, often noisy, labels to data samples. In this work, we provide
a method for learning from weak labels by separating two types of complementary
information associated with the labeling functions: information related to the
target label and information specific to one labeling function only. Both types
of information are reflected to different degrees by all labeled instances. In
contrast to previous works that aimed at correcting or removing wrongly labeled
instances, we learn a branched deep model that uses all data as-is, but splits
the labeling function information in the latent space. Specifically, we propose
the end-to-end model SepLL which extends a transformer classifier by
introducing a latent space for labeling function specific and task-specific
information. The learning signal is only given by the labeling functions
matches, no pre-processing or label model is required for our method. Notably,
the task prediction is made from the latent layer without any direct task
signal. Experiments on Wrench text classification tasks show that our model is
competitive with the state-of-the-art, and yields a new best average
performance.
- Abstract(参考訳): 弱い教師付き学習パラダイムでは、ラベル付け関数はヒューリスティックでしばしばノイズの多いラベルをデータサンプルに自動的に割り当てる。
本研究は,ラベル機能に関連する2種類の補完的情報,対象ラベルに関連する情報と1つのラベル機能に特有の情報とを分離して,弱いラベルから学習する方法を提案する。
どちらの種類の情報もラベル付きインスタンスによって異なる程度に反映される。
不正にラベル付けされたインスタンスの修正や削除を目的とした従来の作業とは対照的に、すべてのデータをそのまま使用しながらラベル付け関数情報を潜時空間に分割する、分岐したディープモデルを学ぶ。
具体的には,関数固有およびタスク固有情報をラベル付けするための潜在空間を導入することにより,変換器分類器を拡張したエンドツーエンドモデルSepLLを提案する。
学習信号はラベリング関数が一致した場合にのみ付与され, 前処理やラベルモデルを必要としない。
特に、タスク予測は、直接のタスク信号を持たない潜在層から行われる。
Wrenchテキスト分類タスクの実験により、我々のモデルは最先端技術と競合し、新しい最高の平均性能が得られることが示された。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - Substituting Data Annotation with Balanced Updates and Collective Loss
in Multi-label Text Classification [19.592985329023733]
MLTC(Multi-label text classification)は、あるテキストに複数のラベルを割り当てるタスクである。
本報告では,MLTCの問題点を,ラベル数に比例して,利用可能な監視信号の大きさが線形であるアノテーションフリーおよび希少アノテーション設定で検討する。
提案手法は,(1)事前学習した言語モデルを用いて,入力テキストを事前ラベル候補の集合にマッピングし,(2)ラベル記述による署名付きラベル依存グラフの計算,(3)ラベル依存グラフに沿ったメッセージパスによる事前ラベル候補の更新を行う。
論文 参考訳(メタデータ) (2023-09-24T04:12:52Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - AutoWS: Automated Weak Supervision Framework for Text Classification [1.748907524043535]
本稿では、ドメインエキスパートへの依存を減らしつつ、弱い監督プロセスの効率を高めるための新しい枠組みを提案する。
本手法では,ラベルクラス毎にラベル付きサンプルの小さなセットが必要であり,多数のラベル付きデータにノイズ付きラベルを割り当てるラベル付き関数のセットを自動生成する。
論文 参考訳(メタデータ) (2023-02-07T07:12:05Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - CaSP: Class-agnostic Semi-Supervised Pretraining for Detection and
Segmentation [60.28924281991539]
本稿では,タスク固有性バランスを向上するために,クラス非依存型半教師付き事前学習(CaSP)フレームワークを提案する。
我々は3.6Mの未ラベルデータを用いて、ImageNetで規定されたオブジェクト検出のベースラインよりも4.7%の顕著なパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2021-12-09T14:54:59Z) - All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training [32.45488147013166]
Pseudo-labelingは、半教師付き学習(SSL)の鍵となるコンポーネントである
本論文では,ラベルセマンティクスとコトレーニングを活用した問題解決手法であるSemCoを提案する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-04-12T07:33:16Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。