論文の概要: Interpretable classification of wiki-review streams
- arxiv url: http://arxiv.org/abs/2405.18335v1
- Date: Tue, 28 May 2024 16:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 17:40:27.919799
- Title: Interpretable classification of wiki-review streams
- Title(参考訳): wiki-reviewストリームの解釈可能な分類
- Authors: Silvia García Méndez, Fátima Leal, Benedita Malheiro, Juan Carlos Burguillo Rial,
- Abstract要約: 本研究の目的は、どのレビューをリバージョンするかを予想し、説明することである。この方法で、編集者がなぜリバージョンされるのかを知らせる。
提案手法はストリームベース処理を用い,各イベントのプロファイリングと分類モデルを更新する。
提案手法は自己説明可能な分類アルゴリズムに依存しているため,レビューが逆転あるいは逆転に分類された理由を理解することができる。
- 参考スコア(独自算出の注目度): 2.902392519134025
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Wiki articles are created and maintained by a crowd of editors, producing a continuous stream of reviews. Reviews can take the form of additions, reverts, or both. This crowdsourcing model is exposed to manipulation since neither reviews nor editors are automatically screened and purged. To protect articles against vandalism or damage, the stream of reviews can be mined to classify reviews and profile editors in real-time. The goal of this work is to anticipate and explain which reviews to revert. This way, editors are informed why their edits will be reverted. The proposed method employs stream-based processing, updating the profiling and classification models on each incoming event. The profiling uses side and content-based features employing Natural Language Processing, and editor profiles are incrementally updated based on their reviews. Since the proposed method relies on self-explainable classification algorithms, it is possible to understand why a review has been classified as a revert or a non-revert. In addition, this work contributes an algorithm for generating synthetic data for class balancing, making the final classification fairer. The proposed online method was tested with a real data set from Wikivoyage, which was balanced through the aforementioned synthetic data generation. The results attained near-90 % values for all evaluation metrics (accuracy, precision, recall, and F-measure).
- Abstract(参考訳): ウィキ記事は編集者の群集によって作成・維持され、レビューの連続ストリームが作成される。
レビューは追加やリバージョン、あるいはその両方という形で行うことができる。
このクラウドソーシングモデルは、レビューもエディタも自動的にスクリーニングされ、パージされないため、操作に晒される。
記事の破壊や損害から保護するために、レビューのストリームを抽出してレビューやプロフィールエディタをリアルタイムで分類することができる。
この研究の目標は、どのレビューを振り返るかを予想し、説明することである。
このようにして、編集者はなぜ編集が元に戻されるのかを知らせる。
提案手法はストリームベース処理を用い,各イベントのプロファイリングと分類モデルを更新する。
プロファイリングは自然言語処理を利用したサイドおよびコンテントベースの機能を使用し、エディタプロファイルはレビューに基づいて漸進的に更新される。
提案手法は自己説明可能な分類アルゴリズムに依存しているため,レビューが逆転あるいは逆転に分類された理由を理解することができる。
さらに、この研究はクラスバランスのための合成データを生成するアルゴリズムに貢献し、最終分類をより公平にする。
提案手法はWikivoyageの実際のデータセットを用いてテストされ, 上記の合成データ生成によってバランスが取れた。
その結果,すべての評価指標(精度,精度,リコール,F測定値)に対して約90%の値を得た。
関連論文リスト
- HelloFresh: LLM Evaluations on Streams of Real-World Human Editorial Actions across X Community Notes and Wikipedia edits [92.62157408704594]
HelloFreshは、本質的に動機づけられた人間のラベルによって生成された実世界のデータの連続的なストリームに基づいている。
ウィキペディアページのX(元Twitter)コミュニティノートと編集の最近のイベントをカバーしている。
テストデータの汚染とベンチマークオーバーフィッティングのリスクを軽減します。
論文 参考訳(メタデータ) (2024-06-05T16:25:57Z) - Edisum: Summarizing and Explaining Wikipedia Edits at Scale [9.968020416365757]
優れた編集要約を生成するために訓練された言語モデルにより生成された編集要約を推薦するモデルを提案する。
我々のモデルは人間の編集者と同等に機能する。
より広い範囲で、Web上で最大かつ最も目に見えるプロジェクトの1つを維持する上で、言語モデリング技術が人間をサポートする方法を紹介します。
論文 参考訳(メタデータ) (2024-04-04T13:15:28Z) - Incremental Extractive Opinion Summarization Using Cover Trees [81.59625423421355]
オンラインマーケットプレースでは、ユーザレビューは時間とともに蓄積され、意見要約を定期的に更新する必要がある。
本研究では,漸進的な環境下での抽出的意見要約の課題について検討する。
本稿では,CentroidRankの要約をインクリメンタルな設定で正確に計算するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-16T02:00:17Z) - Team-related Features in Code Review Prediction Models [10.576931077314887]
コードオーナシップ、ワークロード、チーム関係に関連する機能の予測能力を評価します。
結果から,コードオーナシップに関連する機能が最も優れた予測能力を持つことが示唆された。
提案されたすべての機能とコード行を合わせることで、レビュアーの参加とフィードバックの量の両方に最適な予測ができると結論付けます。
論文 参考訳(メタデータ) (2023-12-11T09:30:09Z) - Evaluating the Ripple Effects of Knowledge Editing in Language Models [47.6531309439867]
我々は5Kの事実編集の診断ベンチマークを行い、様々な種類のリップル効果を捉えた。
筆者らはRippleEdits上での顕著な編集手法の評価を行い、現在の手法がモデルの知識に一貫した変化を起こさないことを示す。
論文 参考訳(メタデータ) (2023-07-24T17:52:46Z) - ARIES: A Corpus of Scientific Paper Edits Made in Response to Peer Reviews [36.76200047558003]
我々は、ピアフィードバックに基づいて科学論文を自動修正するタスクを導入する。
著者が作成した特定の論文にレビュアーコメントをリンクするラベルを提供する。
アートの状態をカバーした10のモデルを用いた実験では、どの編集がコメントに対応するかを特定するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2023-06-21T22:00:03Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z) - Generating Fluent Fact Checking Explanations with Unsupervised
Post-Editing [22.5444107755288]
本稿では,句レベルの編集のみを用いて,支配コメントの教師なし後編集を行う反復編集アルゴリズムを提案する。
本モデルでは, 流動性, 可読性, 非冗長性, 事実チェックのための重要な情報をカバーする説明文を生成する。
論文 参考訳(メタデータ) (2021-12-13T15:31:07Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。