論文の概要: A Simple and Effective Self-Supervised Contrastive Learning Framework
for Aspect Detection
- arxiv url: http://arxiv.org/abs/2009.09107v2
- Date: Thu, 31 Dec 2020 04:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:27:38.472235
- Title: A Simple and Effective Self-Supervised Contrastive Learning Framework
for Aspect Detection
- Title(参考訳): アスペクト検出のための単純かつ効果的な自己教師付きコントラスト学習フレームワーク
- Authors: Tian Shi and Liuqing Li and Ping Wang and Chandan K. Reddy
- Abstract要約: UADタスクのための新しいスムーズな自己意識(SSA)モジュールを備えた自己教師付きコントラスト学習フレームワークとアテンションベースモデルを提案する。
提案手法は, 公開されているベンチマークユーザレビューデータセットにおいて, 教師なし, 弱教師付きアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 15.36713547251997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised aspect detection (UAD) aims at automatically extracting
interpretable aspects and identifying aspect-specific segments (such as
sentences) from online reviews. However, recent deep learning-based topic
models, specifically aspect-based autoencoder, suffer from several problems,
such as extracting noisy aspects and poorly mapping aspects discovered by
models to the aspects of interest. To tackle these challenges, in this paper,
we first propose a self-supervised contrastive learning framework and an
attention-based model equipped with a novel smooth self-attention (SSA) module
for the UAD task in order to learn better representations for aspects and
review segments. Secondly, we introduce a high-resolution selective mapping
(HRSMap) method to efficiently assign aspects discovered by the model to
aspects of interest. We also propose using a knowledge distilling technique to
further improve the aspect detection performance. Our methods outperform
several recent unsupervised and weakly supervised approaches on publicly
available benchmark user review datasets. Aspect interpretation results show
that extracted aspects are meaningful, have good coverage, and can be easily
mapped to aspects of interest. Ablation studies and attention weight
visualization also demonstrate the effectiveness of SSA and the knowledge
distilling method.
- Abstract(参考訳): unsupervised aspect detection (uad) は、解釈可能なアスペクトを自動的に抽出し、オンラインレビューからアスペクト固有のセグメント(文など)を識別することを目的としている。
しかし、近年のディープラーニングベースのトピックモデル、特にアスペクトベースのオートエンコーダは、ノイズのある側面の抽出や、モデルによって発見された貧弱な側面の関心の面へのマッピングなど、いくつかの問題に悩まされている。
これらの課題に対処するために,我々はまず,アスペクトの表現性の向上とセグメントのレビューを行うために,UDAタスクのための新しいスムーズな自己意識(SSA)モジュールを備えた,自己指導型コントラスト学習フレームワークとアテンションベースモデルを提案する。
次に,高分解能選択写像(HRSMap)法を導入し,モデルによって発見されたアスペクトを関心のあるアスペクトに効率的に割り当てる。
また,知識蒸留技術を用いてアスペクト検出性能をさらに向上することを提案する。
提案手法は,最近公表されたベンチマークユーザレビューデータセットにおける非教師なしかつ弱い教師付きアプローチを上回っている。
アスペクト解釈の結果は、抽出されたアスペクトが意味を持ち、カバレッジが良く、興味のあるアスペクトに容易にマッピングできることを示している。
アブレーション研究と注目重量可視化は, SSAと知識蒸留法の有効性を示した。
関連論文リスト
- Emotic Masked Autoencoder with Attention Fusion for Facial Expression Recognition [1.4374467687356276]
本稿では,MAE-Face self-supervised learning (SSL) 法と多視点融合注意機構を組み合わせた表現分類手法を提案する。
我々は、重要な顔の特徴を強調表示して、そのような機能がモデルのガイドとして機能するかどうかを判断することを目的とした、実装が容易でトレーニングなしのフレームワークを提案する。
Aff-wild2データセットにおけるモデル性能の改善により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-03-19T16:21:47Z) - Attribute-Aware Representation Rectification for Generalized Zero-Shot
Learning [19.65026043141699]
一般化ゼロショット学習(GZSL)は、一連の非バイアスの視覚-セマンティックマッピングを設計することによって、顕著な性能を得た。
本稿では,GZSLに対して,$mathbf(AR)2$という簡易かつ効果的な属性認識表現フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T11:30:32Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - A Self-Distillation Embedded Supervised Affinity Attention Model for
Few-Shot Segmentation [18.417460995287257]
そこで本研究では,少数ショットセグメンテーションタスクの性能向上のために,自己拡張型教師付きアフィニティアフィニティアテンションモデルを提案する。
我々のモデルは既存の手法と比較して性能を著しく改善する。
COCO-20iデータセットでは、新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-08-14T18:16:12Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Understanding Failures of Deep Networks via Robust Feature Extraction [44.204907883776045]
本研究では,視覚的特徴を識別し,不在や不在がパフォーマンスの低下を招き,失敗を特徴づけ,説明することを目的とした手法を紹介し,検討する。
我々は、分離されたロバストモデルの表現を活用して、解釈可能な特徴を抽出し、これらの特徴を利用して障害モードを特定します。
論文 参考訳(メタデータ) (2020-12-03T08:33:29Z) - Can Semantic Labels Assist Self-Supervised Visual Representation
Learning? [194.1681088693248]
近隣環境におけるコントラスト調整(SCAN)という新しいアルゴリズムを提案する。
一連のダウンストリームタスクにおいて、SCANは従来の完全教師付きおよび自己教師付きメソッドよりも優れたパフォーマンスを達成する。
本研究は, セマンティックラベルが自己指導的手法の補助に有用であることを明らかにする。
論文 参考訳(メタデータ) (2020-11-17T13:25:00Z) - Toward Tag-free Aspect Based Sentiment Analysis: A Multiple Attention
Network Approach [12.100371588940256]
マルチアテンションネットワーク(MAN)は、テキストレビューからアスペクトレベルと全体的な感情を抽出することができる。
我々は、他の最先端のABSAアプローチと比較して、MANの強い性能を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-03-22T20:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。