論文の概要: Effects of algorithmic flagging on fairness: quasi-experimental evidence
from Wikipedia
- arxiv url: http://arxiv.org/abs/2006.03121v2
- Date: Tue, 6 Apr 2021 00:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 12:51:28.230276
- Title: Effects of algorithmic flagging on fairness: quasi-experimental evidence
from Wikipedia
- Title(参考訳): アルゴリズムフラグングが公正性に及ぼす影響:Wikipediaによる準実験的証拠
- Authors: Nathan TeBlunthuis, Benjamin Mako Hill, Aaron Halfaker
- Abstract要約: 我々は,ウィキペディアにおけるモデレーターの挙動を,ソーシャル信号とアルゴリズムフラグを表示するシステムであるRCFiltersを介するものとして分析する。
アルゴリズム的にフラグ付けされた編集は、特に肯定的な社会的シグナルを持つ編集者によって、より頻繁に再変換されることを示す。
以上の結果から,アルゴリズムのフラグ付けシステムは,いくつかの文脈において公平性を高めることができるが,その関係は複雑かつ不連続であることがわかった。
- 参考スコア(独自算出の注目度): 9.885409727425433
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Online community moderators often rely on social signals such as whether or
not a user has an account or a profile page as clues that users may cause
problems. Reliance on these clues can lead to overprofiling bias when
moderators focus on these signals but overlook the misbehavior of others. We
propose that algorithmic flagging systems deployed to improve the efficiency of
moderation work can also make moderation actions more fair to these users by
reducing reliance on social signals and making norm violations by everyone else
more visible. We analyze moderator behavior in Wikipedia as mediated by
RCFilters, a system which displays social signals and algorithmic flags, and
estimate the causal effect of being flagged on moderator actions. We show that
algorithmically flagged edits are reverted more often, especially those by
established editors with positive social signals, and that flagging decreases
the likelihood that moderation actions will be undone. Our results suggest that
algorithmic flagging systems can lead to increased fairness in some contexts
but that the relationship is complex and contingent.
- Abstract(参考訳): オンラインコミュニティモデレーターは、ユーザが問題を引き起こす可能性のある手がかりとして、アカウントやプロフィールページを持っているかどうかといった社会的信号に依存することが多い。
これらの手がかりへの依存は、モデレーターがこれらの信号に焦点をあてるが、他人の誤解を見逃すと、バイアスが過度に高まる可能性がある。
我々は,モデレーション作業の効率を向上させるために配置されたアルゴリズムフラグングシステムにより,社会的信号への依存を減らし,他人の規範違反をより目立たせることによって,モデレーション動作をより公平にすることができることを提案する。
我々は,ウィキペディアにおけるモデレーターの動作を,ソーシャル信号とアルゴリズムフラグを表示するシステムであるRCFilterを介し解析し,モデレーター行動にフラグを付ける因果効果を推定する。
アルゴリズムでフラグづけされた編集は、特にポジティブな社会的シグナルを持つ確立された編集者によって、より頻繁に逆戻りされ、フラグ付けは、モデレーションアクションが無効になる可能性を低下させる。
以上の結果から,アルゴリズムのフラッグシステムは,文脈によっては公平性が増すが,その関係は複雑かつ偶発的であることが示唆された。
関連論文リスト
- Measuring Strategization in Recommendation: Users Adapt Their Behavior to Shape Future Content [66.71102704873185]
実験と調査を行うことで,ユーザストラテジゼーションの試行を行う。
参加者の居住時間や「いいね!」の使用など,結果指標間での戦略化の強い証拠を見出す。
この結果から,プラットフォームはアルゴリズムがユーザの行動に与える影響を無視できないことが示唆された。
論文 参考訳(メタデータ) (2024-05-09T07:36:08Z) - Can Probabilistic Feedback Drive User Impacts in Online Platforms? [26.052963782865294]
コンテンツレコメンデーションシステムのネガティブなユーザへの影響に関する一般的な説明は、プラットフォームの目的とユーザ福祉の相違である。
本研究は,ユーザに対する意図しない影響の潜在的な原因は,プラットフォーム目標の不一致だけではないことを示す。
これらのユーザーへの影響の源泉は、異なるコンテンツが観測可能なユーザー反応(フィードバック情報)を異なるレートで生成する可能性があることである。
論文 参考訳(メタデータ) (2024-01-10T18:12:31Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - Algorithms, Incentives, and Democracy [0.0]
アルゴリズム設計者による最適分類が集団の行動分布にどのように影響するかを示す。
次に、報酬と罰、または利害関係をアルゴリズム分類に民主化する効果を見て、社会が捕食的分類をいかに生み出すか(または促進するか)を検討する。
論文 参考訳(メタデータ) (2023-07-05T14:22:01Z) - Adversaries with Limited Information in the Friedkin--Johnsen Model [25.89905526128351]
近年,社会に不協和性を導入しようとする敵の標的はオンラインソーシャルネットワークである。
ネットワーク内の不一致や偏光に強い影響を与える少数のユーザ群を検出するための近似アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-17T10:32:02Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Mathematical Framework for Online Social Media Auditing [5.384630221560811]
ソーシャルメディアプラットフォーム(SMP)は、報酬の最大化を目的として、ユーザのフィードを構成するコンテンツを選択する手段として、アルゴリズムフィルタリング(AF)を利用する。
ユーザのフィードに表示されるコンテンツを選択的に選択することは、ユーザの意思決定にある程度、マイナーまたはメジャーの影響を与える可能性がある。
我々は,この枠組みを数学的に定式化し,データ駆動型統計監査手法の構築に利用した。
論文 参考訳(メタデータ) (2022-09-12T19:04:14Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。