論文の概要: Toxic comments reduce the activity of volunteer editors on Wikipedia
- arxiv url: http://arxiv.org/abs/2304.13568v1
- Date: Wed, 26 Apr 2023 13:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 14:11:56.497376
- Title: Toxic comments reduce the activity of volunteer editors on Wikipedia
- Title(参考訳): Toxicコメントはウィキペディアのボランティア編集者の活動を減らす
- Authors: Ivan Smirnov, Camelia Oprea, Markus Strohmaier
- Abstract要約: われわれは、ウィキペディアの6つの最もアクティブな言語版で850万の編集者のユーザートークページで5700万件のコメントを分析した。
有害なコメントは編集者の活動を継続的に減らし、短期的にはユーザ当たり0.5~2日間のアクティブデーが失われたと見積もられている。
有毒なコメントの効果は、長期にわたってさらに大きくなり、エディターがプロジェクトを離れるリスクが大幅に増大する。
- 参考スコア(独自算出の注目度): 3.115375810642661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wikipedia is one of the most successful collaborative projects in history. It
is the largest encyclopedia ever created, with millions of users worldwide
relying on it as the first source of information as well as for fact-checking
and in-depth research. As Wikipedia relies solely on the efforts of its
volunteer-editors, its success might be particularly affected by toxic speech.
In this paper, we analyze all 57 million comments made on user talk pages of
8.5 million editors across the six most active language editions of Wikipedia
to study the potential impact of toxicity on editors' behaviour. We find that
toxic comments consistently reduce the activity of editors, leading to an
estimated loss of 0.5-2 active days per user in the short term. This amounts to
multiple human-years of lost productivity when considering the number of active
contributors to Wikipedia. The effects of toxic comments are even greater in
the long term, as they significantly increase the risk of editors leaving the
project altogether. Using an agent-based model, we demonstrate that toxicity
attacks on Wikipedia have the potential to impede the progress of the entire
project. Our results underscore the importance of mitigating toxic speech on
collaborative platforms such as Wikipedia to ensure their continued success.
- Abstract(参考訳): Wikipediaは歴史上最も成功した共同プロジェクトの一つである。
この百科事典は史上最大の百科事典で、何百万人ものユーザーが情報ソースとして利用し、事実確認や詳細な調査を行っている。
Wikipediaはボランティア編集者の努力にのみ依存しているため、その成功は特に有毒なスピーチに影響される可能性がある。
本稿では,ウィキペディアの6つの最も活発な言語版において,ユーザトークページの5700万件のコメントを分析し,編集者の行動に対する毒性の影響について検討する。
有害なコメントは編集者の活動を継続的に減らし、短期的にはユーザ当たり0.5~2日間のアクティブデーが失われたと推定される。
これは、wikipediaのアクティブなコントリビュータの数を考えると、生産性が失われる複数の年に相当する。
有毒なコメントの効果は、長期にわたってさらに大きくなり、エディターが完全にプロジェクトを離れるリスクが大幅に増大する。
エージェントベースのモデルを用いて,wikipediaにおける毒性攻撃がプロジェクト全体の進捗を阻害する可能性を実証する。
本研究はwikipedia等の共同プラットフォーム上で有毒な発言を緩和し,その継続的な成功を保証することの重要性を強調する。
関連論文リスト
- A Test of Time: Predicting the Sustainable Success of Online Collaboration in Wikipedia [17.051622145253855]
我々は,ウィキペディア記事の持続可能な成功を予測するために,機械学習モデルを開発した。
記事が高品質であると認識されるのに時間がかかるほど、時間とともにそのステータスを維持する可能性が高くなる。
我々の分析はウィキペディア以外の幅広い集団的行動に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-10-24T20:42:53Z) - Tracking Patterns in Toxicity and Antisocial Behavior Over User Lifetimes on Large Social Media Platforms [0.2630859234884723]
われわれはRedditとWikipediaの5億件近いコメントで14年間にわたって毒性を分析している。
Reddit上で最も有毒な行動は、最もアクティブなユーザーによって集計され、最も有毒な行動は、最もアクティブでないユーザーによって集計され、Wikipedia上で最も有毒な行動であることがわかった。
論文 参考訳(メタデータ) (2024-07-12T15:45:02Z) - HelloFresh: LLM Evaluations on Streams of Real-World Human Editorial Actions across X Community Notes and Wikipedia edits [92.62157408704594]
HelloFreshは、本質的に動機づけられた人間のラベルによって生成された実世界のデータの連続的なストリームに基づいている。
ウィキペディアページのX(元Twitter)コミュニティノートと編集の最近のイベントをカバーしている。
テストデータの汚染とベンチマークオーバーフィッティングのリスクを軽減します。
論文 参考訳(メタデータ) (2024-06-05T16:25:57Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Orphan Articles: The Dark Matter of Wikipedia [13.290424502717734]
われわれは,他のウィキペディア記事からのリンクを含まない記事である孤児記事について,最初の体系的な研究を行っている。
すべての記事の約15%(8.8M)の驚くほど多くのコンテンツが、ウィキペディアをナビゲートする読者には事実上見えない。
また, 孤児に新たなリンク(脱孤児化)を追加することで, 統計的に有意な可視性向上につながるという疑似実験を通じて因果的証拠を提供する。
論文 参考訳(メタデータ) (2023-06-06T18:04:33Z) - Mapping Process for the Task: Wikidata Statements to Text as Wikipedia
Sentences [68.8204255655161]
本稿では,ウィキデータ文をウィキペディアのプロジェクト用自然言語テキスト(WS2T)に変換するタスクに対して,文レベルでのマッピングプロセスを提案する。
主なステップは、文を整理し、四つ組と三つ組のグループとして表現し、それらを英語のウィキペディアで対応する文にマッピングすることである。
文構造解析,ノイズフィルタリング,および単語埋め込みモデルに基づく文成分間の関係について,出力コーパスの評価を行った。
論文 参考訳(メタデータ) (2022-10-23T08:34:33Z) - Improving Wikipedia Verifiability with AI [116.69749668874493]
私たちはSideと呼ばれるニューラルネットワークベースのシステムを開発し、彼らの主張を支持できないWikipediaの引用を識別する。
本誌の最初の引用レコメンデーションは、既存のWikipediaの引用よりも60%多い選好を集めている。
以上の結果から,Wikipediaの妥当性を高めるために,AIベースのシステムを人間と共同で活用できることが示唆された。
論文 参考訳(メタデータ) (2022-07-08T15:23:29Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Volunteer contributions to Wikipedia increased during COVID-19 mobility
restrictions [12.779757997290691]
われわれは2018年から2020年にかけて、12のウィキペディア言語版で2億2300万件の編集を行った。
ウィキペディアのグローバルボランティアコミュニティはパンデミックに著しく反応した。
新型コロナウイルス(COVID-19)危機に対するグローバルなボランティアの反応に光を当て、ストレス下の重要なオンラインコミュニティの行動に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2021-02-19T18:46:16Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Architecture for a multilingual Wikipedia [0.0]
我々はこの問題にもっと効果的に取り組むために新しいアプローチが必要だと主張する。
本稿では,この目的を達成するシステムのためのアーキテクチャを提案する。
ゴールは2つの部分に分かれている: 抽象ウィキペディアと呼ばれるプロジェクト内の抽象的な表記法でコンテンツを作成し維持すること、そしてこの表記法を自然言語に翻訳できるWikilambdaと呼ばれるインフラストラクチャを作成する。
論文 参考訳(メタデータ) (2020-04-08T22:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。