論文の概要: Detecting Sockpuppetry on Wikipedia Using Meta-Learning
- arxiv url: http://arxiv.org/abs/2506.10314v1
- Date: Thu, 12 Jun 2025 02:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.545169
- Title: Detecting Sockpuppetry on Wikipedia Using Meta-Learning
- Title(参考訳): メタラーニングによるウィキペディアにおけるソックパペットの検出
- Authors: Luc Raszewski, Christine De Kock,
- Abstract要約: ウィキペディアにおける悪意あるソックパペットの検出は、インターネット上の信頼できる情報へのアクセスを維持するために重要である。
従来の機械学習アプローチはスタイリスティックな特徴とメタデータに頼っているが、著者固有の振る舞いへの適応性を優先しない。
本稿では,データスカース設定の性能向上を目的とした機械学習技術であるメタラーニングの応用を提案する。
- 参考スコア(独自算出の注目度): 4.557963624437784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Malicious sockpuppet detection on Wikipedia is critical to preserving access to reliable information on the internet and preventing the spread of disinformation. Prior machine learning approaches rely on stylistic and meta-data features, but do not prioritise adaptability to author-specific behaviours. As a result, they struggle to effectively model the behaviour of specific sockpuppet-groups, especially when text data is limited. To address this, we propose the application of meta-learning, a machine learning technique designed to improve performance in data-scarce settings by training models across multiple tasks. Meta-learning optimises a model for rapid adaptation to the writing style of a new sockpuppet-group. Our results show that meta-learning significantly enhances the precision of predictions compared to pre-trained models, marking an advancement in combating sockpuppetry on open editing platforms. We release a new dataset of sockpuppet investigations to foster future research in both sockpuppetry and meta-learning fields.
- Abstract(参考訳): ウィキペディアにおける悪意あるソックパペットの検出は、インターネット上の信頼できる情報へのアクセスを保ち、偽情報の拡散を防ぐために重要である。
従来の機械学習アプローチはスタイリスティックな特徴とメタデータに頼っているが、著者固有の振る舞いへの適応性を優先しない。
その結果、特にテキストデータが限られている場合に、特定のソックパペットグループの振る舞いを効果的にモデル化するのに苦労した。
そこで本研究では,複数のタスクにまたがるモデルをトレーニングすることで,データスカース設定の性能向上を目的とした機械学習技術であるメタラーニングの適用を提案する。
メタラーニングは、新しいソックパペットグループの書き方への迅速な適応モデルに最適化する。
その結果,メタラーニングは事前学習モデルと比較して予測精度を著しく向上させ,オープン編集プラットフォーム上でのソックパペットとの戦いの進展を示唆している。
我々は、ソックパペットとメタラーニングの両方の分野における将来の研究を促進するために、ソックパペット調査の新しいデータセットをリリースする。
関連論文リスト
- Learn to Unlearn: Meta-Learning-Based Knowledge Graph Embedding Unlearning [11.836591995678612]
本稿ではメタラーニングに基づく知識グラフ埋め込みアンラーニングフレームワークであるMetaEUを紹介する。
ベンチマークデータセットの実験では、未学習のKG埋め込みの有効性が示されている。
論文 参考訳(メタデータ) (2024-12-01T16:43:04Z) - What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Unsupervised Representation Learning to Aid Semi-Supervised Meta
Learning [16.534014215010757]
トレーニングサンプルの潜在表現を学習するために,一発の教師なしメタラーニングを提案する。
メタラーニングの内ループでは、温度スケールのクロスエントロピー損失を使用し、オーバーフィッティングを防止する。
提案手法はモデル非依存であり, どんなメタ学習モデルでも精度を向上させることができる。
論文 参考訳(メタデータ) (2023-10-19T18:25:22Z) - DaMSTF: Domain Adversarial Learning Enhanced Meta Self-Training for
Domain Adaptation [20.697905456202754]
ドメイン適応のための新しい自己学習フレームワーク、すなわちドメイン逆学習強化自己学習フレームワーク(DaMSTF)を提案する。
DaMSTFはメタラーニングによって各擬似インスタンスの重要性を推定し、ラベルノイズを同時に低減し、ハードサンプルを保存する。
DaMSTFはBERTの性能を平均4%近く改善する。
論文 参考訳(メタデータ) (2023-08-05T00:14:49Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [117.48444197402858]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Meta-Regularization by Enforcing Mutual-Exclusiveness [0.8057006406834467]
本稿では,メタ学習時の情報フローをモデル設計者が制御できるように,メタ学習モデルの正規化手法を提案する。
提案した正規化関数は,Omniglotデータセット上で$sim$$36%の精度向上を示す。
論文 参考訳(メタデータ) (2021-01-24T22:57:19Z) - To Transfer or Not to Transfer: Misclassification Attacks Against
Transfer Learned Text Classifiers [10.762008415887195]
本稿では,教師(公)モデルで学習した意図しない特徴を利用して,生徒(下流)モデルに対する敵対的な例を生成する新しい攻撃手法を提案する。
まず,文脈自由な単語レベルの埋め込みモデルを用いて学習した学生モデルに対して,新たな単語スコアベースの攻撃アルゴリズムを提案する。
次に、文脈対応BERTモデルを用いて訓練されたフェイクニュース検出タスクに対して、長さベースおよび文ベース誤分類攻撃を示す。
論文 参考訳(メタデータ) (2020-01-08T10:26:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。