論文の概要: Asking For It: Question-Answering for Predicting Rule Infractions in Online Content Moderation
- arxiv url: http://arxiv.org/abs/2510.06350v1
- Date: Tue, 07 Oct 2025 18:11:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.137071
- Title: Asking For It: Question-Answering for Predicting Rule Infractions in Online Content Moderation
- Title(参考訳): 質問:オンラインコンテンツモデレーションにおけるルール違反予測のための質問回答
- Authors: Mattia Samory, Diana Pamfile, Andrew To, Shruti Phadke,
- Abstract要約: ModQはルールに敏感なコンテンツモデレーションのための新しい問合せフレームワークである。
モデル変種を2つ実装し、RedditとLemmyの大規模データセットでそれらをトレーニングする。
どちらのモデルも、モデレーション関連ルール違反を特定する上で、最先端のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 1.803599876087764
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Online communities rely on a mix of platform policies and community-authored rules to define acceptable behavior and maintain order. However, these rules vary widely across communities, evolve over time, and are enforced inconsistently, posing challenges for transparency, governance, and automation. In this paper, we model the relationship between rules and their enforcement at scale, introducing ModQ, a novel question-answering framework for rule-sensitive content moderation. Unlike prior classification or generation-based approaches, ModQ conditions on the full set of community rules at inference time and identifies which rule best applies to a given comment. We implement two model variants - extractive and multiple-choice QA - and train them on large-scale datasets from Reddit and Lemmy, the latter of which we construct from publicly available moderation logs and rule descriptions. Both models outperform state-of-the-art baselines in identifying moderation-relevant rule violations, while remaining lightweight and interpretable. Notably, ModQ models generalize effectively to unseen communities and rules, supporting low-resource moderation settings and dynamic governance environments.
- Abstract(参考訳): オンラインコミュニティは、許容可能な行動を定義し秩序を維持するために、プラットフォームポリシーとコミュニティが承認したルールの混合に依存している。
しかしながら、これらのルールはコミュニティによって大きく異なり、時間とともに進化し、一貫性のない方法で実施され、透明性、ガバナンス、自動化の課題を提起します。
本稿では,ルールに敏感なコンテンツモデレーションのための新しい問合せフレームワークであるModQを導入することにより,ルールと大規模実行の関係をモデル化する。
事前の分類や生成に基づくアプローチとは異なり、ModQ条件はコミュニティルールの完全なセットを推論時に設定し、どのルールが与えられたコメントに最も適するかを特定する。
抽出型と多重選択型という2つのモデルバリアントを実装し、RedditとLemmyの大規模なデータセットでトレーニングします。
どちらのモデルも、軽量で解釈可能なまま、モデレーション関連ルール違反を特定する上で、最先端のベースラインを上回っている。
特に、ModQモデルは、低リソースのモデレーション設定と動的ガバナンス環境をサポートし、目に見えないコミュニティやルールに効果的に一般化します。
関連論文リスト
- Decoding the Rule Book: Extracting Hidden Moderation Criteria from Reddit Communities [11.963784232069907]
我々は、コンテンツ削除に関連する語彙表現のスコアテーブルとして、モデレーション基準を表現している。
これらの抽出された語彙パターンは,ニューラルネットワークモデルの性能を効果的に再現することを示した。
結果の基準行列は、共有ノルムが実際にどのように強制されるかに大きなバリエーションを示す。
論文 参考訳(メタデータ) (2025-09-03T01:27:26Z) - Reddit Rules and Rulers: Quantifying the Link Between Rules and Perceptions of Governance across Thousands of Communities [13.80648276848838]
5,225のコミュニティで67,545のユニークなルールを収集し、Redditのルールをこれまでで最大の分析を行いました。
単なるポイント・イン・タイムの研究以上のことで、我々の研究は5年以上にわたってコミュニティがルールをどのように変えていくかを測定します。
私たちは、ガバナンスに対する肯定的なコミュニティの認識と最も強く結びついているルールを最初に特定します。
論文 参考訳(メタデータ) (2025-01-24T01:26:41Z) - Symbolic Working Memory Enhances Language Models for Complex Rule Application [87.34281749422756]
大規模言語モデル(LLM)は、顕著な推論性能を示しているが、多段階の推論に苦慮している。
本稿では,外部ワーキングメモリを用いたLLMの拡張と,ルール適用のためのニューロシンボリックフレームワークを提案する。
当社のフレームワークは,LLMベースのルール実装とシンボリックルールグラウンディングを反復的に実施する。
論文 参考訳(メタデータ) (2024-08-24T19:11:54Z) - SoFA: Shielded On-the-fly Alignment via Priority Rule Following [90.32819418613407]
本稿では,各ダイアログにおけるルールを主制御機構として定義する,新たなアライメントパラダイムである優先ルールを提案する。
そこで本研究では,厳密な規則統合と固着性を確保するために,シミュレーションから優先信号に従う半自動蒸留手法であるプライオリティディスティルを提案する。
論文 参考訳(メタデータ) (2024-02-27T09:52:27Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - Rule By Example: Harnessing Logical Rules for Explainable Hate Speech
Detection [13.772240348963303]
Rule By Example(RBE)は、テキストコンテンツモデレーションのタスクに対する論理規則から学習するための、新規なコントラスト学習手法である。
RBEはルール基底の予測を提供することができ、典型的なディープラーニングベースのアプローチと比較して説明可能でカスタマイズ可能な予測を可能にする。
論文 参考訳(メタデータ) (2023-07-24T16:55:37Z) - Rewriting a Deep Generative Model [56.91974064348137]
我々は,深層生成モデルによって符号化された特定の規則の操作という,新たな問題設定を導入する。
本稿では,ディープネットワークの層を線形連想メモリとして操作することで,所望のルールを変更する定式化を提案する。
本稿では,生成モデルのルールを対話的に変更し,望ましい効果を得られるユーザインタフェースを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:58:16Z) - Building Rule Hierarchies for Efficient Logical Rule Learning from
Knowledge Graphs [20.251630903853016]
本稿では,ルール階層を用いて非プロミッシングルールを抽出する新しい手法を提案する。
HPMの応用は非プロムルールの除去に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-29T16:33:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。