論文の概要: MoMoE: Mixture of Moderation Experts Framework for AI-Assisted Online Governance
- arxiv url: http://arxiv.org/abs/2505.14483v1
- Date: Tue, 20 May 2025 15:16:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.459107
- Title: MoMoE: Mixture of Moderation Experts Framework for AI-Assisted Online Governance
- Title(参考訳): MoMoE: AI支援オンラインガバナンスのためのモデレーションエキスパートフレームワークの混合
- Authors: Agam Goyal, Xianyang Zhan, Yilun Chen, Koustuv Saha, Eshwar Chandrasekharan,
- Abstract要約: Mixture of Moderation Experts (MoMoE)は、スケーラブルなコンテンツモデレーションにポストホックな説明を追加するモジュラーフレームワークである。
MoMoEは、Allocate、Predict、Aggregate、Explainという4つのオペレーターを編成し、コミュニティの専門家7人と規範違反の専門家5人としてインスタンス化されている。
30個の目に見えないサブレディットでは、最良の変種がそれぞれ0.72と0.67のMicro-F1スコアを得る。
- 参考スコア(独自算出の注目度): 13.759689015188698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown great potential in flagging harmful content in online communities. Yet, existing approaches for moderation require a separate model for every community and are opaque in their decision-making, limiting real-world adoption. We introduce Mixture of Moderation Experts (MoMoE), a modular, cross-community framework that adds post-hoc explanations to scalable content moderation. MoMoE orchestrates four operators -- Allocate, Predict, Aggregate, Explain -- and is instantiated as seven community-specialized experts (MoMoE-Community) and five norm-violation experts (MoMoE-NormVio). On 30 unseen subreddits, the best variants obtain Micro-F1 scores of 0.72 and 0.67, respectively, matching or surpassing strong fine-tuned baselines while consistently producing concise and reliable explanations. Although community-specialized experts deliver the highest peak accuracy, norm-violation experts provide steadier performance across domains. These findings show that MoMoE yields scalable, transparent moderation without needing per-community fine-tuning. More broadly, they suggest that lightweight, explainable expert ensembles can guide future NLP and HCI research on trustworthy human-AI governance of online communities.
- Abstract(参考訳): 大規模言語モデル(LLM)は、オンラインコミュニティにおいて有害なコンテンツをフラグ付けする大きな可能性を示している。
しかし、既存のモデレーションのアプローチでは、すべてのコミュニティに別々のモデルが必要であり、意思決定において不透明であり、実際の採用を制限する。
スケーラブルなコンテンツモデレーションにポストホックな説明を追加するモジュール形式のクロスコミュニティフレームワークであるMixture of Moderation Experts(MoMoE)を紹介した。
MoMoEは4つのオペレーター(Allocate、Predict、Aggregate、Explain)を編成し、7つのコミュニティ特化専門家(MoMoE-Community)と5つのノルム違反専門家(MoMoE-NormVio)としてインスタンス化される。
30の目に見えないサブレディットでは、最良の変種はそれぞれ0.72と0.67のMicro-F1スコアを取得し、正確で信頼性の高い説明を一貫して生成する。
コミュニティに特化された専門家は最高精度を提供するが、標準違反の専門家はドメイン間でより安定したパフォーマンスを提供する。
これらの結果から,MoMoEはコミュニティごとの微調整を必要とせず,スケーラブルで透明なモデレーションをもたらすことが明らかとなった。
より広範に、軽量で説明可能な専門家アンサンブルは、オンラインコミュニティの信頼できる人間-AIガバナンスに関する将来のNLPおよびHCI研究を導くことができることを示唆している。
関連論文リスト
- OMoE: Diversifying Mixture of Low-Rank Adaptation by Orthogonal Finetuning [3.8813502422318127]
低ランク適応(LoRA)のためのMixix-of-experts(MoE)アーキテクチャは、パラメータ効率の微調整(PEFT)における潜在的方向として出現している。
まず,バニラMoEの類似表現に専門家が崩壊し,モジュール設計の能力と計算効率が制限されることを示す定性解析を行った。
これらの知見に触発されて、直交混合(OMoE)を提案する。
提案手法は,バニラMOEモデルと比較して最小限の専門家を惹起するため,メモリボトルネックを緩和する。
論文 参考訳(メタデータ) (2025-01-17T09:27:08Z) - Monet: Mixture of Monosemantic Experts for Transformers [33.8311330578753]
トランスフォーマー(Monet)アーキテクチャのためのモノセマンティックエキスパート(Mixture of Monosemantic Experts)を紹介する。
Monetはスパース辞書学習を直接エンドツーエンドのMixture-of-Expertsプリトレーニングに組み込む。
本分析は,専門家間の知識の相互排他性を示し,各専門家にカプセル化されたパラメトリック知識を示す。
論文 参考訳(メタデータ) (2024-12-05T13:06:03Z) - FedMoE: Personalized Federated Learning via Heterogeneous Mixture of Experts [4.412721048192925]
我々は、データ不均一性に対処するための効率的パーソナライズされたFederated LearningフレームワークであるFedMoEを紹介する。
FedMoEは2つの微調整段階から構成されており、第1段階では、観測されたアクティベーションパターンに基づいて探索を行うことで問題を単純化する。
第2段階では、これらのサブモデルはさらなるトレーニングのためにクライアントに配布され、サーバ集約のために返される。
論文 参考訳(メタデータ) (2024-08-21T03:16:12Z) - MoMa: Efficient Early-Fusion Pre-training with Mixture of Modality-Aware Experts [95.26323548734692]
MoMaは、モダリティを意識したミックス・オブ・エキスパートアーキテクチャで、混合モーダル、アーリーフュージョン言語モデルを事前訓練する。
MoMa 1.4Bモデルには4人のテキスト専門家と4人の画像専門家が参加し、FLOPの大幅な節約を実現している。
論文 参考訳(メタデータ) (2024-07-31T17:46:51Z) - Mixture of insighTful Experts (MoTE): The Synergy of Thought Chains and Expert Mixtures in Self-Alignment [103.05005690990271]
本稿では,自己アライメントを改善するために,推論チェーンとエキスパートミックスを組み合わせた新しいフレームワークを提案する。
MoTEは、質問分析、回答ガイダンス、安全回答、安全チェックの4つの主要なステージからなる構造化推論チェーンを採用している。
MoTEはモデルの安全性、脱獄耐性、過剰な拒否機能を大幅に改善し、OpenAIの最先端のo1モデルに匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-01T15:06:05Z) - Diversifying the Mixture-of-Experts Representation for Language Models with Orthogonal Optimizer [59.43462055143123]
The Mixture of Experts (MoE)は、ディープラーニングにおいて非常に成功したテクニックとして登場した。
本研究では,MoEの専門家が多様性の専門化や欠如に失敗した同質表現問題に光を当てた。
我々は,各専門家が他の専門家に分散された部分空間への方向を更新するように促す訓練戦略を交互に提案する。
論文 参考訳(メタデータ) (2023-10-15T07:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。