論文の概要: Embarrassingly Simple Unsupervised Aspect Extraction
- arxiv url: http://arxiv.org/abs/2004.13580v1
- Date: Tue, 28 Apr 2020 15:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:59:59.642762
- Title: Embarrassingly Simple Unsupervised Aspect Extraction
- Title(参考訳): 恥ずかしいほど単純で教師なしのアスペクト抽出
- Authors: St\'ephan Tulkens, Andreas van Cranenburgh
- Abstract要約: 本稿では,感情分析におけるアスペクト識別の簡易かつ効果的な方法を提案する。
提案手法は単語埋め込みとPOSタグのみを必要とする。
本稿では,新しいシングルヘッドアテンション機構であるContrastive Attention (CAt)を紹介する。
- 参考スコア(独自算出の注目度): 4.695687634290403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple but effective method for aspect identification in
sentiment analysis. Our unsupervised method only requires word embeddings and a
POS tagger, and is therefore straightforward to apply to new domains and
languages. We introduce Contrastive Attention (CAt), a novel single-head
attention mechanism based on an RBF kernel, which gives a considerable boost in
performance and makes the model interpretable. Previous work relied on
syntactic features and complex neural models. We show that given the simplicity
of current benchmark datasets for aspect extraction, such complex models are
not needed. The code to reproduce the experiments reported in this paper is
available at https://github.com/clips/cat
- Abstract(参考訳): 本稿では,感情分析におけるアスペクト識別法を提案する。
我々の教師なし手法は単語の埋め込みとPOSタグしか必要とせず、新しいドメインや言語にも簡単に適用できる。
本稿では,RBFカーネルをベースとした新しいシングルヘッドアテンション機構であるContrastive Attention (CAt)を導入する。
以前の研究は構文的特徴と複雑な神経モデルに依存していた。
アスペクト抽出のための現在のベンチマークデータセットの単純さを考えると、このような複雑なモデルは必要ない。
この論文で報告された実験を再現するコードは、https://github.com/clips/catで入手できる。
関連論文リスト
- Fine-Grained Prototypes Distillation for Few-Shot Object Detection [8.795211323408513]
Few-shot Object Detection (FSOD) は、新しい物体検出のためのジェネリック検出器を、少数の訓練例で拡張することを目的としている。
一般に、メタラーニングに基づく手法は、新しいサンプルをクラスプロトタイプにエンコードするために追加のサポートブランチを使用する。
より堅牢な新しいオブジェクト検出のために、特徴ある局所的コンテキストをキャプチャするためには、新しい方法が必要である。
論文 参考訳(メタデータ) (2024-01-15T12:12:48Z) - Ref-Diff: Zero-shot Referring Image Segmentation with Generative Models [68.73086826874733]
本稿では,画像分割を参照するための新しい参照拡散分割器(Referring Diffusional segmentor, Ref-Diff)を提案する。
提案生成器がなければ、生成モデルだけで既存のSOTAの弱教師付きモデルに匹敵する性能を達成できることを実証する。
このことは、生成モデルがこのタスクに有益であり、より優れたセグメンテーションを参照するために識別モデルを補完できることを示している。
論文 参考訳(メタデータ) (2023-08-31T14:55:30Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Unsupervised Deep Learning Meets Chan-Vese Model [77.24463525356566]
本稿では,Chan-Vese(CV)モデルとディープニューラルネットワークを統合した教師なしのイメージセグメンテーション手法を提案する。
私たちの基本的な考え方は、イメージを潜伏空間にマッピングするディープニューラルネットワークを適用して、画像空間における断片的な定数仮定の違反を軽減することです。
論文 参考訳(メタデータ) (2022-04-14T13:23:57Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。