論文の概要: Can AI Moderate Online Communities?
- arxiv url: http://arxiv.org/abs/2306.05122v1
- Date: Thu, 8 Jun 2023 11:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 14:48:29.407573
- Title: Can AI Moderate Online Communities?
- Title(参考訳): AIはオンラインコミュニティをモデレートできるか?
- Authors: Henrik Axelsen, Johannes Rude Jensen, Sebastian Axelsen, Valdemar
Licht, Omri Ross
- Abstract要約: オープンアクセス生成事前学習型トランスフォーマーモデル(GPT)をOpenAIから利用して,大規模言語モデル(LLM)を訓練する。
予備的な知見は、適切に訓練された場合、LLMはアクターの意図を識別し、有害なコメントをモデレートし、肯定的な貢献を得られることを示唆している。
我々は、コンテンツオンラインモデレーションにおける生成AIの適用と、分散化された匿名コミュニティにおける文化の管理に関する、迅速な開発フレームワークを用いて、情報システム(IS)の談話に貢献する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of cultivating healthy communication in online communities becomes
increasingly urgent, as gaming and social media experiences become
progressively more immersive and life-like. We approach the challenge of
moderating online communities by training student models using a large language
model (LLM). We use zero-shot learning models to distill and expand datasets
followed by a few-shot learning and a fine-tuning approach, leveraging
open-access generative pre-trained transformer models (GPT) from OpenAI. Our
preliminary findings suggest, that when properly trained, LLMs can excel in
identifying actor intentions, moderating toxic comments, and rewarding positive
contributions. The student models perform above-expectation in non-contextual
assignments such as identifying classically toxic behavior and perform
sufficiently on contextual assignments such as identifying positive
contributions to online discourse. Further, using open-access models like
OpenAI's GPT we experience a step-change in the development process for what
has historically been a complex modeling task. We contribute to the information
system (IS) discourse with a rapid development framework on the application of
generative AI in content online moderation and management of culture in
decentralized, pseudonymous communities by providing a sample model suite of
industrial-ready generative AI models based on open-access LLMs.
- Abstract(参考訳): オンラインコミュニティにおける健全なコミュニケーションを育むという課題は、ゲームやソーシャルメディアの体験が徐々に没入的になり、生活の様相が増すにつれて、ますます緊急化しつつある。
我々は,大規模言語モデル(LLM)を用いて学生モデルを訓練することで,オンラインコミュニティをモデレートする課題にアプローチする。
ゼロショット学習モデルを使用してデータセットを蒸留および拡張し、OpenAIからオープンアクセス可能な生成前トレーニングトランスフォーマーモデル(GPT)を活用する、数ショット学習と微調整アプローチを実践する。
予備的な知見は、適切に訓練された場合、LLMはアクターの意図を識別し、有害なコメントをモデレートし、肯定的な貢献を得られることを示唆している。
学生モデルでは,非文脈的課題,例えば古典的有害な行動の同定,オンライン談話への肯定的な貢献の特定など,文脈的課題について十分な評価を行う。
さらに、openaiのgptのようなオープンアクセスモデルを使用することで、これまで複雑なモデリングタスクであった開発プロセスにステップチェンジを経験できます。
オープンアクセス LLM に基づく産業対応型生成型AIモデルのサンプルモデルスイートを提供することにより,情報システム (IS) におけるコンテンツオンラインモデレーションと文化管理への生成型AIの適用に関する迅速な開発フレームワークの構築に寄与する。
関連論文リスト
- Engagement-Driven Content Generation with Large Language Models [8.049552839071918]
大規模言語モデル(LLM)は1対1の相互作用において重要な説得能力を示す。
本研究では,相互接続型ユーザにおけるLCMの社会的影響と複雑な意見力学について検討する。
論文 参考訳(メタデータ) (2024-11-20T10:40:08Z) - Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - From MOOC to MAIC: Reshaping Online Teaching and Learning through LLM-driven Agents [78.15899922698631]
MAIC(Massive AI-empowered Course)は、LLM駆動のマルチエージェントシステムを活用して、AIが強化された教室を構築するオンライン教育の新たな形態である。
中国一の大学である清華大学で予備的な実験を行う。
論文 参考訳(メタデータ) (2024-09-05T13:22:51Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [49.043599241803825]
Iterative Contrastive Unlearning (ICU)フレームワークは3つのコアコンポーネントで構成されている。
知識未学習誘導モジュールは、未学習の損失を通じて特定の知識を除去する。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を維持する。
また、特定のデータ片の未学習範囲を動的に評価し、反復的な更新を行う反復未学習リファインメントモジュールも用意されている。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Social Learning: Towards Collaborative Learning with Large Language
Models [10.24107243529341]
大規模言語モデル(LLM)の文脈における「社会学習」の枠組みを紹介する。
LLM間の知識伝達のための2つのアプローチを提案し,評価する。
これらの手法による性能は,元のラベルとプロンプトを用いた結果に匹敵することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:44:10Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Sparsity-aware neural user behavior modeling in online interaction
platforms [2.4036844268502766]
ユーザ行動モデリングのための一般化可能なニューラル表現学習フレームワークを開発する。
問題設定は、トランスダクティブおよびインダクティブな学習シナリオにまたがる。
ユーザの振る舞いを反映した情報のさまざまな側面を活用して、大規模にパーソナライズされた推論を可能にする。
論文 参考訳(メタデータ) (2022-02-28T00:27:11Z) - Ex-Model: Continual Learning from a Stream of Trained Models [12.27992745065497]
連続的な学習システムは、訓練されたモデルの形式で圧縮された情報の可用性を活用するべきであると論じる。
エージェントが生データの代わりに以前に訓練されたモデルのシーケンスから学習する「Ex-Model Continual Learning」(Ex-Model Continual Learning)という新しいパラダイムを導入し、形式化する。
論文 参考訳(メタデータ) (2021-12-13T09:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。