論文の概要: Deep Active Learning for Text Classification with Diverse
Interpretations
- arxiv url: http://arxiv.org/abs/2108.10687v1
- Date: Sun, 15 Aug 2021 10:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 12:10:51.169433
- Title: Deep Active Learning for Text Classification with Diverse
Interpretations
- Title(参考訳): 多様な解釈を用いたテキスト分類のための深層アクティブラーニング
- Authors: Qiang Liu and Yanqiao Zhu and Zhaocheng Liu and Yufeng Zhang and Shu
Wu
- Abstract要約: そこで我々は,DivErse iNterpretations (ALDEN) を用いた新しいアクティブラーニング手法を提案する。
ディープニューラルネットワーク(DNN)の局所的な解釈により、ALDENは標本の線形分離可能な領域を特定する。
テキスト分類問題に対処するために,文章全体を表現するために,最も多様な解釈で単語を選択する。
- 参考スコア(独自算出の注目度): 20.202134075256094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Deep Neural Networks (DNNs) have made remarkable progress for text
classification, which, however, still require a large number of labeled data.
To train high-performing models with the minimal annotation cost, active
learning is proposed to select and label the most informative samples, yet it
is still challenging to measure informativeness of samples used in DNNs. In
this paper, inspired by piece-wise linear interpretability of DNNs, we propose
a novel Active Learning with DivErse iNterpretations (ALDEN) approach. With
local interpretations in DNNs, ALDEN identifies linearly separable regions of
samples. Then, it selects samples according to their diversity of local
interpretations and queries their labels. To tackle the text classification
problem, we choose the word with the most diverse interpretations to represent
the whole sentence. Extensive experiments demonstrate that ALDEN consistently
outperforms several state-of-the-art deep active learning methods.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(dnn)はテキスト分類において著しい進歩を遂げているが、それでも大量のラベル付きデータを必要とする。
アノテーションコストが最小のハイパフォーマンスモデルをトレーニングするために、最も有益なサンプルを選択しラベル付けするために、アクティブラーニングが提案されているが、dnnで使用されるサンプルの情報量を測定することは依然として困難である。
本稿では,DNNの断片的線形解釈性に着想を得て,DivErse iNterpretations (ALDEN) を用いた新しい学習手法を提案する。
DNNの局所的な解釈により、ALDENは標本の線形分離可能な領域を特定する。
そして、ローカルな解釈の多様性に応じてサンプルを選択し、ラベルを問い合わせる。
テキスト分類問題に対処するために,文章全体を表現するために,最も多様な解釈で単語を選択する。
大規模な実験により、ALDENは最先端の深層学習方法よりも一貫して優れていることが示された。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - A semantic hierarchical graph neural network for text classification [1.439766998338892]
本稿では,単語レベル,文レベル,文書レベルから対応する情報をそれぞれ抽出する階層型グラフニューラルネットワーク(HieGNN)を提案する。
いくつかのベンチマークデータセットの実験結果は、いくつかのベースライン手法と比較して、より良い、または類似した結果が得られる。
論文 参考訳(メタデータ) (2022-09-15T03:59:31Z) - Learning to Imagine: Diversify Memory for Incremental Learning using
Unlabeled Data [69.30452751012568]
本研究では,多様な特徴を適応的に生成することで,経験を多様化する学習可能な特徴生成装置を開発する。
生成したサンプルを前例とセマンティックに整合させるために,意味的コントラスト学習を導入する。
提案手法は, 余分な推論コストを伴わず, 2つのベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-19T15:15:18Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Contextual Diversity for Active Learning [9.546771465714876]
大規模なデータセットは、多くの実用化のためにディープ畳み込みニューラルネットワーク(CNN)の使用を制限する。
空間的に共起するクラスに関連した混乱を捉える文脈的多様性の概念を導入する。
本研究は,活発な学習に文脈的多様性を用いることの利点を明らかにした。
論文 参考訳(メタデータ) (2020-08-13T07:04:15Z) - Deep Active Learning by Model Interpretability [7.3461534048332275]
本稿では, 線形分離可能なサンプル領域について, アクティブラーニングの課題について紹介する。
モデル解釈可能性(DAMI)を用いた新しい深層能動学習手法を提案する。
ラベルなしデータ全体の最大代表性を維持するため、DAMIは異なる線形分離可能な領域のサンプルを選択してラベル付けしようとする。
論文 参考訳(メタデータ) (2020-07-23T16:06:27Z) - Learning Interpretable and Discrete Representations with Adversarial
Training for Unsupervised Text Classification [87.28408260725138]
TIGANは、テキストを離散コードと連続ノイズを含む2つの非絡み合った表現にエンコードすることを学ぶ。
抽出したトピックの単語は,TIGANが一貫性と高度に解釈可能なトピックを学習していることを示している。
論文 参考訳(メタデータ) (2020-04-28T02:53:59Z) - COLAM: Co-Learning of Deep Neural Networks and Soft Labels via
Alternating Minimization [60.07531696857743]
2つの目的の交互最小化によるDNNとソフトラベルの共学習
本稿では,DNNとソフトラベルを相互に学習するCOLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T17:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。