論文の概要: Scalable Recommendation of Wikipedia Articles to Editors Using
Representation Learning
- arxiv url: http://arxiv.org/abs/2009.11771v1
- Date: Thu, 24 Sep 2020 15:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 02:34:26.893465
- Title: Scalable Recommendation of Wikipedia Articles to Editors Using
Representation Learning
- Title(参考訳): 表現学習を用いたウィキペディア記事の編集者へのスケーラブルな推薦
- Authors: Oleksii Moskalenko, Denis Parra, and Diego Saez-Trumper
- Abstract要約: 我々は、グラフ畳み込みネットワークとDoc2Vecの上にスケーラブルなシステムを開発し、ウィキペディアの記事の表現方法を学び、編集者にパーソナライズされたレコメンデーションを提供する。
筆者らは,過去の編集結果に基づいて,最新の編集結果を予測し,編集者の履歴に基づいてモデルを検証した。
この論文で使用されるデータはすべて公開されており、ウィキペディアの記事のグラフ埋め込みなどが含まれています。
- 参考スコア(独自算出の注目度): 1.8810916321241067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Wikipedia is edited by volunteer editors around the world. Considering the
large amount of existing content (e.g. over 5M articles in English Wikipedia),
deciding what to edit next can be difficult, both for experienced users that
usually have a huge backlog of articles to prioritize, as well as for newcomers
who that might need guidance in selecting the next article to contribute.
Therefore, helping editors to find relevant articles should improve their
performance and help in the retention of new editors. In this paper, we address
the problem of recommending relevant articles to editors. To do this, we
develop a scalable system on top of Graph Convolutional Networks and Doc2Vec,
learning how to represent Wikipedia articles and deliver personalized
recommendations for editors. We test our model on editors' histories,
predicting their most recent edits based on their prior edits. We outperform
competitive implicit-feedback collaborative-filtering methods such as WMRF
based on ALS, as well as a traditional IR-method such as content-based
filtering based on BM25. All of the data used on this paper is publicly
available, including graph embeddings for Wikipedia articles, and we release
our code to support replication of our experiments. Moreover, we contribute
with a scalable implementation of a state-of-art graph embedding algorithm as
current ones cannot efficiently handle the sheer size of the Wikipedia graph.
- Abstract(参考訳): Wikipediaは世界中のボランティア編集者によって編集されている。
既存のコンテンツ(例えば、英語のwikipediaで500万以上の記事)の多さを考えると、次に何を編集するかを決めるのは難しい。
したがって、編集者が関連記事を見つけるのを助けることは、そのパフォーマンスを改善し、新しい編集者の維持を助けるべきである。
本稿では,関連する記事を編集者に推薦する問題に対処する。
そこで我々は,グラフ畳み込みネットワークとDoc2Vec上にスケーラブルなシステムを構築し,ウィキペディア記事の表現方法を学び,編集者にパーソナライズされたレコメンデーションを提供する。
我々は,先行編集に基づいて最新の編集を予測し,編集者の履歴に基づいてモデルをテストする。
我々は、AMSに基づくWMRFやBM25に基づくコンテンツベースフィルタリングのような従来のIRメソッドのような競合的な暗黙フィードバック協調フィルタリング手法よりも優れている。
この論文で使われているデータはすべて公開されており、wikipediaの記事のグラフ埋め込みも含まれており、実験のレプリケーションをサポートするためにコードをリリースしています。
さらに,現状ではwikipediaグラフのサイズを効率的に処理できないため,最先端グラフ埋め込みアルゴリズムのスケーラブルな実装に寄与する。
関連論文リスト
- HelloFresh: LLM Evaluations on Streams of Real-World Human Editorial Actions across X Community Notes and Wikipedia edits [92.62157408704594]
HelloFreshは、本質的に動機づけられた人間のラベルによって生成された実世界のデータの連続的なストリームに基づいている。
ウィキペディアページのX(元Twitter)コミュニティノートと編集の最近のイベントをカバーしている。
テストデータの汚染とベンチマークオーバーフィッティングのリスクを軽減します。
論文 参考訳(メタデータ) (2024-06-05T16:25:57Z) - Edisum: Summarizing and Explaining Wikipedia Edits at Scale [9.968020416365757]
優れた編集要約を生成するために訓練された言語モデルにより生成された編集要約を推薦するモデルを提案する。
我々のモデルは人間の編集者と同等に機能する。
より広い範囲で、Web上で最大かつ最も目に見えるプロジェクトの1つを維持する上で、言語モデリング技術が人間をサポートする方法を紹介します。
論文 参考訳(メタデータ) (2024-04-04T13:15:28Z) - Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models [11.597314728459573]
我々は、大きな言語モデルを用いて、ウィキペディアのページに匹敵する幅と深さの長い記事をスクラッチから書く方法を研究した。
本稿では,検索と複数パースペクティブ質問応答によるトピックアウトライン生成のための記述システムSTORMを提案する。
論文 参考訳(メタデータ) (2024-02-22T01:20:17Z) - WikiIns: A High-Quality Dataset for Controlled Text Editing by Natural
Language Instruction [56.196512595940334]
WikiInsは高品質な制御されたテキスト編集データセットで、情報性が向上している。
高品質なアノテートデータセットを用いて,大規模な銀のトレーニングセットを生成するための自動アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-08T04:46:39Z) - SWiPE: A Dataset for Document-Level Simplification of Wikipedia Pages [87.08880616654258]
我々は、SWiPEデータセットを導入し、英語のウィキペディア(EW)記事から単純なウィキペディア(SEW)記事への文書レベルの編集プロセスを再構築する。
我々はウィキペディアの編集者と協力して5000のEW-SEWドキュメントペアを注釈付けし、提案された19のカテゴリで4万以上の編集をラベル付けしています。
SWiPEで訓練されたモデルは、不要な編集を減らしながら、より複雑な編集を生成する。
論文 参考訳(メタデータ) (2023-05-30T16:52:42Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - Leveraging Wikidata's edit history in knowledge graph refinement tasks [77.34726150561087]
編集履歴は、コミュニティが何らかのファジィで分散した合意に達する過程を表す。
Wikidataで最も重要な100のクラスから、すべてのインスタンスの編集履歴を含むデータセットを構築します。
タイプ予測タスクのための知識グラフ埋め込みモデルにおいて,この編集履歴情報を活用する2つの新しい手法を提案し,評価する。
論文 参考訳(メタデータ) (2022-10-27T14:32:45Z) - Wiki-Reliability: A Large Scale Dataset for Content Reliability on
Wikipedia [4.148821165759295]
我々は、幅広いコンテンツ信頼性の問題に注釈を付けた英語ウィキペディア記事の最初のデータセットを構築した。
このデータセットを構築するには、Wikipediaの「テンプレート」を利用します。
ウィキペディアで最も人気のある10の信頼性関連テンプレートを選択し、ウィキペディアの記事改訂のほぼ1Mのサンプルをポジティブまたはネガティブにラベル付ける効果的な方法を提案します。
論文 参考訳(メタデータ) (2021-05-10T05:07:03Z) - References in Wikipedia: The Editors' Perspective [2.0609354896832492]
編集者の視点から新しいウィキペディア記事の参考文献の作成と収集について検討する。
新しい記事を作成する際のエディタのワークフローをマッピングし、レファレンスの選択方法を強調します。
論文 参考訳(メタデータ) (2021-02-24T19:04:17Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Layered Graph Embedding for Entity Recommendation using Wikipedia in the
Yahoo! Knowledge Graph [4.36080995655245]
ウィキペディアのための埋め込み型エンティティレコメンデーションフレームワークについて述べる。
結果として得られる埋め込みとレコメンデーションは、品質とユーザエンゲージメントの観点からうまく機能することを示す。
論文 参考訳(メタデータ) (2020-04-15T00:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。