論文の概要: Power Echoes: Investigating Moderation Biases in Online Power-Asymmetric Conflicts
- arxiv url: http://arxiv.org/abs/2603.01457v1
- Date: Mon, 02 Mar 2026 05:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.689266
- Title: Power Echoes: Investigating Moderation Biases in Online Power-Asymmetric Conflicts
- Title(参考訳): パワーエコー:オンラインパワー非対称紛争におけるモデレーションバイアスの調査
- Authors: Yaqiong Li, Peng Zhang, Peixu Hou, Kainan Tu, Guangping Zhang, Shan Qu, Wenshi Chen, Yan Chen, Ning Gu, Tun Lu,
- Abstract要約: 我々は,パワー非対称のコンフリクト・モデレーションにおいて人間のモデレーターが示すパワー関連バイアスの種類について検討することを目的とする。
消費者と商人の実際の対立をシナリオとして活用し,50人の参加者による複合設計実験を行った。
結果は、この2つのモデレーションモードにおいて、強力な党を支持するためのいくつかのバイアスを示唆している。
- 参考スコア(独自算出の注目度): 13.793692568587195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online power-asymmetric conflicts are prevalent, and most platforms rely on human moderators to conduct moderation currently. Previous studies have been continuously focusing on investigating human moderation biases in different scenarios, while moderation biases under power-asymmetric conflicts remain unexplored. Therefore, we aim to investigate the types of power-related biases human moderators exhibit in power-asymmetric conflict moderation (RQ1) and further explore the influence of AI's suggestions on these biases (RQ2). For this goal, we conducted a mixed design experiment with 50 participants by leveraging the real conflicts between consumers and merchants as a scenario. Results suggest several biases towards supporting the powerful party within these two moderation modes. AI assistance alleviates most biases of human moderation, but also amplifies a few. Based on these results, we propose several insights into future research on human moderation and human-AI collaborative moderation systems for power-asymmetric conflicts.
- Abstract(参考訳): オンラインのパワー非対称の衝突は一般的であり、ほとんどのプラットフォームは、現在モデレーションを行うために人間のモデレーターに依存している。
これまでの研究は、異なるシナリオにおけるヒトのモデレーションバイアスの研究に継続的に焦点を合わせてきたが、パワー非対称な対立の下でのモデレーションバイアスは未解明のままである。
そこで本研究では, パワー非対称コンフリクト・モデレーション(RQ1)において人間のモデレーターが示すパワー関連バイアスの種類を調査し, これらのバイアス(RQ2)に対するAIの提案の影響をさらに調べる。
この目的のために、消費者と商人の実際の対立をシナリオとして活用し、50人の参加者による複合設計実験を行った。
結果は、この2つのモデレーションモードにおいて、強力な党を支持するためのいくつかのバイアスを示唆している。
AIアシストは、人間のモデレーションのバイアスの大半を緩和するが、一部を増幅する。
これらの結果に基づき,パワー非対称衝突に対する人・AI協調モデレーションシステムと人・AI協調モデレーションシステムの今後の研究について,いくつかの知見を提示する。
関連論文リスト
- Multi-Persona Thinking for Bias Mitigation in Large Language Models [21.10313260260077]
大規模言語モデル(LLM)は、有害なステレオタイプや不公平な結果に永続的な社会的バイアスを示す。
複数視点からの弁証的推論を利用してバイアスを低減する新しい推論時間フレームワークであるMulti-Persona Thinking (MPT)を提案する。
MPTは、対照的な社会的アイデンティティと中立的な視点を採用するようモデルに誘導し、それらのペルソナを反復してバイアスを露出し、修正する。
論文 参考訳(メタデータ) (2026-01-21T21:40:58Z) - Biased Minds Meet Biased AI: How Class Imbalance Shapes Appropriate Reliance and Interacts with Human Base Rate Neglect [11.632235903846016]
我々は、AIバイアスとしてのクラス不均衡が、AIベースの意思決定支援システムに適切に依存する人々の能力にどのように影響するかを検討した。
授業の不均衡が参加者のAI依存の校正を妨げていることがわかった。
我々は,クラス不均衡とベースレートの無視の強化効果を観察し,複合AIバイアスの証拠を提示した。
論文 参考訳(メタデータ) (2025-11-18T15:33:46Z) - Biased AI improves human decision-making but reduces trust [0.8621608193534839]
現在のAIシステムは、イデオロギー的中立を強制することによってリスクを最小化するが、これは人間の意思決定における認知的関与を抑制することによって自動化バイアスをもたらす可能性がある。
我々は2500人の参加者とともにランダム化試験を行い、文化に偏ったAIが人間の意思決定を促進するかどうかを検証した。
論文 参考訳(メタデータ) (2025-08-12T19:20:43Z) - Judging with Many Minds: Do More Perspectives Mean Less Prejudice? On Bias Amplifications and Resistance in Multi-Agent Based LLM-as-Judge [70.89799989428367]
我々は、位置バイアス、冗長性バイアス、チェーンオブ思考バイアス、バンドワゴンバイアスの4つの多様なバイアスタイプを体系的に分析する。
広く採用されているマルチエージェントLLM-as-JudgeフレームワークであるMulti-Agent-DebateとLLM-as-Meta-Judgeでこれらのバイアスを評価する。
論文 参考訳(メタデータ) (2025-05-26T03:56:41Z) - BiasConnect: Investigating Bias Interactions in Text-to-Image Models [73.76853483463836]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用の分析と定量化を目的とした新しいツールであるBiasConnectを紹介する。
我々の手法は、与えられたバイアスが修正されたとき、他のバイアス次元が理想的な分布に向かって、あるいは離れてどのように変化するかを示す経験的推定を提供する。
本稿では,最適なバイアス緩和軸の選択,学習する依存関係の異なるTTIモデルの比較,およびTTIモデルにおける交叉社会的バイアスの増幅を理解するためのBiasConnectの有用性を示す。
論文 参考訳(メタデータ) (2025-03-12T19:01:41Z) - A Critical Review of Predominant Bias in Neural Networks [19.555188118439883]
この2つのバイアスには、永続的で、広範囲にまたがるが、未調査の混乱が存在することが分かりました。
これら2つの偏りの数学的定義を2つ提供し、これらの定義を活用して総合的な論文リストを統一することにより、明確さの回復を目指す。
論文 参考訳(メタデータ) (2025-02-16T07:55:19Z) - Argumentative Experience: Reducing Confirmation Bias on Controversial Issues through LLM-Generated Multi-Persona Debates [8.288230743741947]
大規模言語モデル(LLM)を利用した多人数討論システムでは,確認バイアスの低減が期待できる。
LLMに基づく多人数討論システムと2スタンス検索ベースのシステムを比較し、議論の的となっているトピックに対する複数の視点を参加者に提示する。
以上の結果から,議論システムは対立する視点への注意を著しく高めるものではないが,個人の認知傾向による偏見に対する緩衝効果が示唆された。
論文 参考訳(メタデータ) (2024-12-05T21:51:05Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Causal Distillation for Alleviating Performance Heterogeneity in Recommender Systems [142.3424649008479]
歴史的相互作用の不均一な分布とレコメンダモデルのバイアス付きトレーニングを示す。
デバイアスドトレーニングの鍵は、ユーザの過去の行動と次の行動の両方に影響を与える共同創設者の影響を取り除くことである。
本稿では,非保守的共同設立者に対応するために,因果多教師蒸留フレームワーク(CausalD)を提案する。
論文 参考訳(メタデータ) (2024-05-31T05:31:00Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - M2P2: Multimodal Persuasion Prediction using Adaptive Fusion [65.04045695380333]
本稿では,ディベートアウトカム予測 (DOP) 問題において,誰が討論に勝つかを予測し,IPP (Intensity of Persuasion Prediction) 問題では,講演者の発言前後の投票数の変化を予測する。
我々のM2P2フレームワークはIPP問題を解決するためにマルチモーダル(音響、視覚、言語)データを使用した最初のフレームワークです。
論文 参考訳(メタデータ) (2020-06-03T18:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。