論文の概要: Detecting Insincere Questions from Text: A Transfer Learning Approach
- arxiv url: http://arxiv.org/abs/2012.07587v1
- Date: Mon, 7 Dec 2020 15:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 13:55:42.992981
- Title: Detecting Insincere Questions from Text: A Transfer Learning Approach
- Title(参考訳): テキストから不適切な質問を検出する:伝達学習アプローチ
- Authors: Ashwin Rachha and Gaurav Vanmane
- Abstract要約: 今日インターネットは、quora、reddit、stackoverflow、twitterなどのコンテンツベースのウェブサイトで人々が会話する、未解決の情報ソースになっている。
そのようなウェブサイトで発生する大きな問題は、有毒なコメントの拡散や、ユーザーが真剣な動機を維持する代わりに、有毒で分裂的なコンテンツを拡散させることです。
本稿では,viz BERT, RoBERTa, DistilBERT, ALBERTの4つの切削年代モデルを微調整し,Insincere Questions Classification問題を解く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The internet today has become an unrivalled source of information where
people converse on content based websites such as Quora, Reddit, StackOverflow
and Twitter asking doubts and sharing knowledge with the world. A major arising
problem with such websites is the proliferation of toxic comments or instances
of insincerity wherein the users instead of maintaining a sincere motive
indulge in spreading toxic and divisive content. The straightforward course of
action in confronting this situation is detecting such content beforehand and
preventing it from subsisting online. In recent times Transfer Learning in
Natural Language Processing has seen an unprecedented growth. Today with the
existence of transformers and various state of the art innovations, a
tremendous growth has been made in various NLP domains. The introduction of
BERT has caused quite a stir in the NLP community. As mentioned, when
published, BERT dominated performance benchmarks and thereby inspired many
other authors to experiment with it and publish similar models. This led to the
development of a whole BERT-family, each member being specialized on a
different task. In this paper we solve the Insincere Questions Classification
problem by fine tuning four cutting age models viz BERT, RoBERTa, DistilBERT
and ALBERT.
- Abstract(参考訳): 今日インターネットは、quora、reddit、stackoverflow、twitterなどのコンテンツベースのウェブサイトで、疑わしい質問をしたり、知識を世界中と共有したりする、未解決の情報ソースになっている。
このようなウェブサイトで生じる大きな問題は、有害なコメントの拡散や、ユーザーが誠実なモチベーションを保ちながら、有害で異質なコンテンツを広めることである。
この状況に直面する直接的な行動は、そのようなコンテンツを事前に検出し、オンラインに登録するのを防ぐことである。
近年、自然言語処理におけるトランスファー学習は前例のない成長を遂げている。
今日、変圧器の存在と様々な技術革新の状況により、様々なNLPドメインで大きな成長を遂げている。
BERTの導入は、NLPコミュニティに大きな刺激を与えました。
前述のように、BERTはパフォーマンスベンチマークを支配し、他の多くの著者に同様のモデルの実験と公開を刺激した。
これによりBERTファミリー全体が開発され、各メンバーは別のタスクに特化していた。
本稿では, 切削年齢モデルviz BERT, RoBERTa, DistilBERT, ALBERT を微調整することで, インシンセア質問分類問題を解決する。
関連論文リスト
- QiBERT -- Classifying Online Conversations Messages with BERT as a Feature [0.0]
本稿では,ポルトガルの学校におけるオンライン社会会話から得られたデータを用いて行動傾向を観察することを目的とする。
このプロジェクトでは、BERTベースのモデルを通じて、最先端(SoA)機械学習アルゴリズムと手法を使用して、発話が議論の対象の内外かどうかを分類する。
論文 参考訳(メタデータ) (2024-09-09T11:38:06Z) - Multi-class Regret Detection in Hindi Devanagari Script [1.249418440326334]
本研究は、様々なソーシャルメディアプラットフォーム上での後悔と、特にヒンディー語でどのように表現されるかに焦点を当てる。
本稿では,3つの資料から得られた新しいデータセットについて述べる。各文を手作業で分類し,3つのクラスのうちの1つに分類する。
以上の結果から,ソーシャルメディアプラットフォーム上の個人は過去の不行や行動に後悔を抱くことが多いことが示唆された。
論文 参考訳(メタデータ) (2024-01-29T20:58:43Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - BERTuit: Understanding Spanish language in Twitter through a native
transformer [70.77033762320572]
bfBERTuitは、これまでスペイン語のために提案された大きなトランスフォーマーで、2億3000万のスペイン語ツイートの膨大なデータセットで事前トレーニングされている。
私たちのモチベーションは、スペイン語のTwitterをよりよく理解し、このソーシャルネットワークにフォーカスしたアプリケーションに利用するための強力なリソースを提供することです。
論文 参考訳(メタデータ) (2022-04-07T14:28:51Z) - FBERT: A Neural Transformer for Identifying Offensive Content [67.12838911384024]
fBERTは、SOLIDで再訓練されたBERTモデルである。
複数の英文データセット上での攻撃的内容の同定におけるfBERTの性能を評価し、SOLIDからインスタンスを選択するためのしきい値をテストする。
fBERTモデルは、コミュニティで自由に利用できるようになる。
論文 参考訳(メタデータ) (2021-09-10T19:19:26Z) - hBert + BiasCorp -- Fighting Racism on the Web [58.768804813646334]
これはfox news、breitbartnews、youtubeの3つの特定のソースから139,090のコメントとニュースを含むデータセットです。
本研究では、hBERT を新しい Hopfield Layer を用いて、予め訓練された BERT モデルの特定の層を修正する。
開発者がwebアプリケーションでトレーニングされたモデルを利用できるようにするため、javascriptライブラリとchrome拡張アプリケーションもリリースしています。
論文 参考訳(メタデータ) (2021-04-06T02:17:20Z) - A Weakly Supervised Approach for Classifying Stance in Twitter Replies [11.139350549173953]
オンライン会話では敵の反応が一般的である。
これらの不利な見解(あるいは姿勢)を返信文から推測することは困難である。
我々は,twitter応答におけるスタンスを予測するための弱い教師付きアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-12T06:02:45Z) - HASOCOne@FIRE-HASOC2020: Using BERT and Multilingual BERT models for
Hate Speech Detection [9.23545668304066]
ヘイトスピーチと攻撃的コンテンツを自動的に分類する手法を提案する。
FIRE 2019と2020の共有タスクから得られたデータセットを使用しました。
事前学習したBERTモデルと多言語BERTモデルが最良の結果となった。
論文 参考訳(メタデータ) (2021-01-22T08:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。