論文の概要: An Empirical Study on Measuring the Similarity of Sentential Arguments
with Language Model Domain Adaptation
- arxiv url: http://arxiv.org/abs/2102.09786v1
- Date: Fri, 19 Feb 2021 08:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-22 13:29:12.674492
- Title: An Empirical Study on Measuring the Similarity of Sentential Arguments
with Language Model Domain Adaptation
- Title(参考訳): 言語モデル領域適応による空間的議論の類似度測定に関する実証的研究
- Authors: ChaeHun Park and Sangwoo Seo
- Abstract要約: データセットはさまざまなトピックの専門知識を使ってアノテートされなければならず、ラベル付きデータによる教師付き学習が高価になる。
最初に,事前学習した言語モデルを,自己教師あり学習を用いて関心領域に適用した。
我々は、異なるドメインから取られた文間の類似度を測定するタスクにモデルを微調整した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measuring the similarity between two different sentential arguments is an
important task in argument mining. However, one of the challenges in this field
is that the dataset must be annotated using expertise in a variety of topics,
making supervised learning with labeled data expensive. In this paper, we
investigated whether this problem could be alleviated through transfer
learning. We first adapted a pretrained language model to a domain of interest
using self-supervised learning. Then, we fine-tuned the model to a task of
measuring the similarity between sentences taken from different domains. Our
approach improves a correlation with human-annotated similarity scores compared
to competitive baseline models on the Argument Facet Similarity dataset in an
unsupervised setting. Moreover, we achieve comparable performance to a fully
supervised baseline model by using only about 60% of the labeled data samples.
We believe that our work suggests the possibility of a generalized argument
clustering model for various argumentative topics.
- Abstract(参考訳): 2つの異なるセンテンショナル引数の類似度を測定することは、引数マイニングにおいて重要なタスクです。
しかし、この分野の課題の1つは、さまざまなトピックの専門知識を使用してデータセットを注釈付けし、ラベル付きデータによる教師付き学習を高価にする必要があることです。
本稿では,この問題を伝達学習によって緩和できるかどうかを検討した。
最初に,事前学習した言語モデルを,自己教師あり学習を用いて関心領域に適用した。
次に、異なる領域から取られた文間の類似度を測定するタスクにモデルを微調整した。
提案手法は,Argument Facet similarity データセットの競合ベースラインモデルと比較して,教師なし環境での人間の注釈付き類似度スコアとの相関性を改善する。
さらに,ラベル付きデータサンプルの約60%を用いて,完全な教師付きベースラインモデルと同等の性能を実現する。
本研究では,様々な議論トピックに対する一般化引数クラスタリングモデルの可能性について示唆する。
関連論文リスト
- Generative vs. Discriminative modeling under the lens of uncertainty quantification [0.929965561686354]
本稿では,生成的アプローチと識別的アプローチの比較分析を行った。
両手法が,不確実性を考慮した推論において,様々な情報源からの情報を活用する能力を比較する。
本稿では,両手法の教師あり学習と,検討されたモデリング手法と互換性のあるセミ教師あり学習を実現するための一般的なサンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:32:43Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Topics in the Haystack: Extracting and Evaluating Topics beyond
Coherence [0.0]
本稿では,文と文書のテーマを深く理解する手法を提案する。
これにより、一般的な単語やネオロジズムを含む潜在トピックを検出することができる。
本稿では, 侵入者の単語の人間識別と相関係数を示し, 単語侵入作業において, ほぼ人間レベルの結果を得る。
論文 参考訳(メタデータ) (2023-03-30T12:24:25Z) - Counting Like Human: Anthropoid Crowd Counting on Modeling the
Similarity of Objects [92.80955339180119]
メインストリームの群衆計数法は 密度マップを補強して 計数結果を得るために統合する。
これに触発された我々は,合理的かつ人為的な集団カウントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-02T07:00:53Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Improving Commonsense Causal Reasoning by Adversarial Training and Data
Augmentation [14.92157586545743]
本稿では,因果推論の領域において,モデルをより堅牢にするための多くの手法を提案する。
少数の追加生成データポイントがなくても、パフォーマンスと両方のデータセットの統計的に有意な改善を示します。
論文 参考訳(メタデータ) (2021-01-13T09:55:29Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。