論文の概要: From Toxicity in Online Comments to Incivility in American News: Proceed
with Caution
- arxiv url: http://arxiv.org/abs/2102.03671v1
- Date: Sat, 6 Feb 2021 21:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:46:16.015247
- Title: From Toxicity in Online Comments to Incivility in American News: Proceed
with Caution
- Title(参考訳): オンラインコメントの毒性からアメリカのニュースのインキュビティへ:注意を払って
- Authors: Anushree Hede, Oshin Agarwal, Linda Lu, Diana C. Mutz, Ani Nenkova
- Abstract要約: Jigsaw Perspective APIは、開発したコーパス上でのインシヴィティの度合いを検出するためにテストします。
我々は、パースペクティブが示すように、毒性モデルはニュースにおける悪質の分析に不十分であることを示した。
- 参考スコア(独自算出の注目度): 6.770249285373613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to quantify incivility online, in news and in congressional
debates, is of great interest to political scientists. Computational tools for
detecting online incivility for English are now fairly accessible and
potentially could be applied more broadly. We test the Jigsaw Perspective API
for its ability to detect the degree of incivility on a corpus that we
developed, consisting of manual annotations of civility in American news. We
demonstrate that toxicity models, as exemplified by Perspective, are inadequate
for the analysis of incivility in news. We carry out error analysis that points
to the need to develop methods to remove spurious correlations between words
often mentioned in the news, especially identity descriptors and incivility.
Without such improvements, applying Perspective or similar models on news is
likely to lead to wrong conclusions, that are not aligned with the human
perception of incivility.
- Abstract(参考訳): オンライン、ニュース、議会の議論で市民性を定量化する能力は、政治科学者にとって非常に興味深いものです。
英語のオンラインインシビリティーを検出するための計算ツールは、現在かなりアクセス可能であり、より広く適用できる可能性があります。
Jigsaw Perspective APIは、アメリカのニュースで市民の手動アノテーションで構成された、私たちが開発したコーパスで市民の程度を検出する能力のためにテストします。
我々は、Perspectiveが例示した毒性モデルは、ニュースの市民性の分析に不十分であることを示しています。
我々は,ニュースでしばしば言及される単語,特にアイデンティティ記述子とイシヴィティ間の急激な相関を除去する手法を開発する必要性を指摘する誤り解析を行う。
このような改善がなければ、ニュースにパースペクティブまたは類似のモデルを適用することは、市民性の人間の認識と一致していない間違った結論につながる可能性があります。
関連論文リスト
- DocNet: Semantic Structure in Inductive Bias Detection Models [0.4779196219827508]
本稿では,文書におけるバイアス検出の見過ごされがちな側面として,ニュース記事の意味的構造について考察する。
本稿では,新しい,インダクティブで低リソースなドキュメント埋め込みとバイアス検出モデルであるDocNetを提案する。
また、文書レベルのグラフ埋め込みに代表される、対立するパルチザン側からのニュース記事のセマンティック構造が顕著に類似していることも示している。
論文 参考訳(メタデータ) (2024-06-16T14:51:12Z) - Hate Cannot Drive out Hate: Forecasting Conversation Incivility
following Replies to Hate Speech [12.274054522085107]
本研究では,公民権・公民権のコメント数に基づいて,会話の非公民権度を測定する指標を提案する。
言語学的分析により,高次かつ低次かつフォローアップな会話を誘発する応答の言語の違いが明らかになった。
論文 参考訳(メタデータ) (2023-12-08T02:39:17Z) - Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Detecting Multidimensional Political Incivility on Social Media [2.3704813250344436]
13Kの政治的ツイートの大規模なデータセットを用いて,最先端のシビリティ検出結果を示す。
政治的市民性は, 利用者の偏りの強い分布を示し, サブ人口やユーザレベルにおいて, 市民性と相関する社会的要因について検討する。
論文 参考訳(メタデータ) (2023-05-24T09:57:12Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - "It's Not Just Hate'': A Multi-Dimensional Perspective on Detecting
Harmful Speech Online [26.10949184015077]
よりきめ細かなマルチラベルアプローチが、概念的およびパフォーマンス的な問題の両方に対処し、悪質でヘイトフルなコンテンツや不寛容なコンテンツを予測することを示します。
我々は、米国と英国からの移民に関する4万件以上のツイートからなる新しいデータセットを公開しました。
論文 参考訳(メタデータ) (2022-10-28T03:34:50Z) - Low Government Performance and Uncivil Political Posts on Social Media:
Evidence from the COVID-19 Crisis in the US [0.0]
ソーシャルメディア上での人々の非公的な政治的表現と、政府のパフォーマンスがどのように結びついているかは明らかになっていない。
今回の調査では、米国の州知事を対象とするX/Twitterに800万件以上の投稿を収集し、それらを非公然と分類した。
統計分析の結果、州レベルの新型コロナウイルス感染者の増加により、州知事に対する非公職ポストの数が大幅に増加したことが判明した。
論文 参考訳(メタデータ) (2021-07-21T12:19:14Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。