論文の概要: APPDIA: A Discourse-aware Transformer-based Style Transfer Model for
Offensive Social Media Conversations
- arxiv url: http://arxiv.org/abs/2209.08207v1
- Date: Sat, 17 Sep 2022 00:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 17:34:47.416677
- Title: APPDIA: A Discourse-aware Transformer-based Style Transfer Model for
Offensive Social Media Conversations
- Title(参考訳): APPDIA:攻撃的ソーシャルメディア会話のための対話型トランスフォーマーに基づくスタイル伝達モデル
- Authors: Katherine Atwell, Sabit Hassan, Malihe Alikhani
- Abstract要約: われわれは、初めて公開され、パラレルなRedditコメントのコーパスと、社会言語学者によって注釈付けされたスタイル変換されたコメントをリリースする。
本稿では,Redditテキストにおける不快感を効果的に低減し,本来のテキストの意味を保ちつつ,最初の談話型スタイルトランスファーモデルを提案する。
- 参考スコア(独自算出の注目度): 11.011242089340437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using style-transfer models to reduce offensiveness of social media comments
can help foster a more inclusive environment. However, there are no sizable
datasets that contain offensive texts and their inoffensive counterparts, and
fine-tuning pretrained models with limited labeled data can lead to the loss of
original meaning in the style-transferred text. To address this issue, we
provide two major contributions. First, we release the first
publicly-available, parallel corpus of offensive Reddit comments and their
style-transferred counterparts annotated by expert sociolinguists. Then, we
introduce the first discourse-aware style-transfer models that can effectively
reduce offensiveness in Reddit text while preserving the meaning of the
original text. These models are the first to examine inferential links between
the comment and the text it is replying to when transferring the style of
offensive Reddit text. We propose two different methods of integrating
discourse relations with pretrained transformer models and evaluate them on our
dataset of offensive comments from Reddit and their inoffensive counterparts.
Improvements over the baseline with respect to both automatic metrics and human
evaluation indicate that our discourse-aware models are better at preserving
meaning in style-transferred text when compared to the state-of-the-art
discourse-agnostic models.
- Abstract(参考訳): スタイル移行モデルを使ってソーシャルメディアコメントの不快さを減らすことは、より包括的な環境を育むのに役立つ。
しかし、攻撃的テキストとその非攻撃的テキストを含む巨大なデータセットは存在せず、ラベル付きデータに制限のある微調整された事前学習モデルは、スタイル変換されたテキストに本来の意味が失われる可能性がある。
この問題に対処するため、私たちは2つの大きな貢献をします。
まず、初回公開のRedditコメントのパラレルコーパスと、専門家の社会言語学者によって注釈付けされたスタイル変換されたコメントをリリースする。
次に,原文の意味を維持しつつ,redditテキストの不快感を効果的に低減できる最初の談話認識スタイル伝達モデルを提案する。
これらのモデルは、Redditの攻撃的なテキストのスタイルを転送する際に返信するコメントとテキストの間の推論リンクを最初に調べたものだ。
我々は,事前学習されたトランスフォーマーモデルと談話関係を統合するための2つの異なる方法を提案し,redditとそれに対する攻撃的コメントのデータセット上で評価する。
自動計測と人的評価の両面でのベースラインの改善は、私たちの言論認識モデルは、最先端の言論認識モデルと比較して、スタイル変換テキストにおける意味を保存するのに優れていることを示している。
関連論文リスト
- Prefix-Tuning Based Unsupervised Text Style Transfer [29.86587278794342]
教師なしテキストスタイル転送は、その内容を保持しながら入力文のスタイルを変更することができる生成モデルを訓練することを目的としている。
本稿では,事前学習された強力な大規模言語モデルを用いて,教師なしテキストスタイル転送のためのプレフィックス・チューニング方式を提案する。
論文 参考訳(メタデータ) (2023-10-23T06:13:08Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Specializing Small Language Models towards Complex Style Transfer via
Latent Attribute Pre-Training [29.143887057933327]
複雑なテキストスタイルの転送タスクの概念を導入し、2つの広く適用可能なシナリオに基づいて複雑なテキストデータセットを構築した。
我々のデータセットは、ゲームGenshin Impactの700文と1000文からなる、この種の最初の大規模データセットである。
論文 参考訳(メタデータ) (2023-09-19T21:01:40Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Text Detoxification using Large Pre-trained Neural Models [57.72086777177844]
テキスト中の毒性を除去する2つの新しい教師なし手法を提案する。
最初の方法は、生成プロセスのガイダンスと、小さなスタイル条件言語モデルを組み合わせることである。
第2の方法は、BERTを使用して有害な単語を非攻撃的同義語に置き換える。
論文 参考訳(メタデータ) (2021-09-18T11:55:32Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Towards A Friendly Online Community: An Unsupervised Style Transfer
Framework for Profanity Redaction [17.380204095038795]
暴力的かつ虐待的な言葉は、ソーシャルメディアプラットフォームに迫る問題だ。
本稿では, 攻撃的コメント, 暴言, あるいは攻撃的言語を含む文を, 非攻撃的コメントに変換する手法を提案する。
論文 参考訳(メタデータ) (2020-11-01T02:10:25Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。