論文の概要: Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions
- arxiv url: http://arxiv.org/abs/2310.05779v1
- Date: Mon, 9 Oct 2023 15:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 06:46:23.737031
- Title: Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions
- Title(参考訳): なぜこの記事を削除するべきか?
多言語ウィキペディア編集者討論における透明スタンス検出
- Authors: Lucie-Aim\'ee Kaffee, Arnav Arora and Isabelle Augenstein
- Abstract要約: ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
- 参考スコア(独自算出の注目度): 47.944081120226905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The moderation of content on online platforms is usually non-transparent. On
Wikipedia, however, this discussion is carried out publicly and the editors are
encouraged to use the content moderation policies as explanations for making
moderation decisions. Currently, only a few comments explicitly mention those
policies -- 20% of the English ones, but as few as 2% of the German and Turkish
comments. To aid in this process of understanding how content is moderated, we
construct a novel multilingual dataset of Wikipedia editor discussions along
with their reasoning in three languages. The dataset contains the stances of
the editors (keep, delete, merge, comment), along with the stated reason, and a
content moderation policy, for each edit decision. We demonstrate that stance
and corresponding reason (policy) can be predicted jointly with a high degree
of accuracy, adding transparency to the decision-making process. We release
both our joint prediction models and the multilingual content moderation
dataset for further research on automated transparent content moderation.
- Abstract(参考訳): オンラインプラットフォーム上のコンテンツのモデレーションは通常透明ではない。
しかし、ウィキペディアでは、この議論が公に行われ、編集者はコンテンツモデレーションポリシーをモデレーション決定を行うための説明として使うことを奨励されている。
現在、これらの政策を明示的に言及するコメントはごくわずかで、イングランドの20%だが、ドイツとトルコのコメントの2%にも満たない。
コンテンツの穏健化の過程を理解するため、ウィキペディア編集者の議論の新たな多言語データセットを構築し、3つの言語による推論を行う。
データセットにはエディタのスタンス(keep、delete、merge、コメント)と、記述された理由、および編集決定毎のコンテンツモデレーションポリシーが含まれている。
姿勢とそれに対応する理由(政治)を高い精度で共同で予測し、意思決定プロセスに透明性を付加できることを実証する。
我々は,共同予測モデルと多言語コンテンツモデレーションデータセットの両方を公開し,自動透明コンテンツモデレーションのさらなる研究を行う。
関連論文リスト
- WiDe-analysis: Enabling One-click Content Moderation Analysis on Wikipedia's Articles for Deletion [10.756673240445709]
コンテンツモデレーションの議論にワンクリック分析を提供することを目的としたPythonパッケージであるウィキペディア削除議論とワイドアナライス(ウィキペディア削除分析)に関する一連の実験を紹介する。
データ、モデル、Pythonパッケージ、およびHuggingFaceスペースを含む、幅広い分析に関連するすべての資産をリリースし、ウィキペディアなどにおけるコンテンツモデレーションの自動化に関する研究を加速することを目的としています。
論文 参考訳(メタデータ) (2024-08-10T23:43:11Z) - Fundamental Problems With Model Editing: How Should Rational Belief Revision Work in LLMs? [61.68363765350178]
本稿では,モデル編集問題の標準的な定式化を批判し,モデル編集研究のための形式的テストベッドを提案する。
まず,(1) 問題の定義,(2) ベンチマークの開発,(3) LLM がそもそも編集可能な信念を持っていることを前提として,モデル編集における12のオープンな問題について述べる。
次に、Wikidataに基づくモデル編集のための半合成データセットを導入し、理想化されたベイズエージェントによって与えられるラベルに対する編集を評価する。
論文 参考訳(メタデータ) (2024-06-27T17:33:03Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Bridging Background Knowledge Gaps in Translation with Automatic
Explicitation [13.862753200823242]
専門家の翻訳者は、欠落した状況を説明するために明示を取り入れている。
本研究はWikiExplによって動機付けられた明示を自動生成する技術を紹介する。
結果の明示は、多言語質問応答フレームワークにおいて、より正確に質問に答えるのに役立つ。
論文 参考訳(メタデータ) (2023-12-03T07:24:12Z) - Multilingual Content Moderation: A Case Study on Reddit [23.949429463013796]
Redditのコメント18万件の多言語データセットを導入し,コンテンツモデレーションの課題について検討する。
我々は、基礎となる課題を強調し、関連する研究課題を提案するために、広範な実験分析を行う。
私たちのデータセットと分析は、オートモデレーションの課題と機会に備えるのに役立ちます。
論文 参考訳(メタデータ) (2023-02-19T16:36:33Z) - CoRAL: a Context-aware Croatian Abusive Language Dataset [7.536701073553703]
本研究では,地域・グローバルな文脈に依存する暗黙の現象を包含する言語と文化的に認識されたクロアチアの虐待データセットを提案する。
コメントが明示的でない場合、現在のモデルは劣化し、コメントを解釈するために言語スキルと文脈知識が必要である場合、さらに劣化することを示す。
論文 参考訳(メタデータ) (2022-11-11T08:10:13Z) - Mapping Process for the Task: Wikidata Statements to Text as Wikipedia
Sentences [68.8204255655161]
本稿では,ウィキデータ文をウィキペディアのプロジェクト用自然言語テキスト(WS2T)に変換するタスクに対して,文レベルでのマッピングプロセスを提案する。
主なステップは、文を整理し、四つ組と三つ組のグループとして表現し、それらを英語のウィキペディアで対応する文にマッピングすることである。
文構造解析,ノイズフィルタリング,および単語埋め込みモデルに基づく文成分間の関係について,出力コーパスの評価を行った。
論文 参考訳(メタデータ) (2022-10-23T08:34:33Z) - NewsEdits: A News Article Revision Dataset and a Document-Level
Reasoning Challenge [122.37011526554403]
NewsEditsは、最初に公開されたニュースリビジョン履歴のデータセットである。
120万記事と、22以上の英語とフランス語の新聞ソースから460万バージョンを収録している。
論文 参考訳(メタデータ) (2022-06-14T18:47:13Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。