論文の概要: Multilingual Reference Need Assessment System for Wikipedia
- arxiv url: http://arxiv.org/abs/2603.17146v1
- Date: Tue, 17 Mar 2026 21:20:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.39788
- Title: Multilingual Reference Need Assessment System for Wikipedia
- Title(参考訳): ウィキペディアの多言語参照要求評価システム
- Authors: Aitolkyn Baigutanova, Francisco Navas, Pablo Aragon, Mykola Trokhymovych, Muniza Aslam, Ai-Jou Chou, Miriam Redi, Diego Saez-Trumper,
- Abstract要約: ウィキペディアでは、コンテンツは検証されなければなりません。つまり、読者は信頼できる情報源への参照によってクレームが裏付けられていることを確認できます。
これは、効果的だが労働集約的なプロセスである編集者による手作業による検証に依存する。
我々は,引用を必要とするクレームの特定において,編集者を支援する多言語機械学習システムを導入する。
われわれのアプローチはWikipediaの10の言語版でテストされており、既存の基準要求評価ベンチマークよりも優れている。
- 参考スコア(独自算出の注目度): 3.6064346181633806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wikipedia is a critical source of information for millions of users across the Web. It serves as a key resource for large language models, search engines, question-answering systems, and other Web-based applications. In Wikipedia, content needs to be verifiable, meaning that readers can check that claims are backed by references to reliable sources. This depends on manual verification by editors, an effective but labor-intensive process, especially given the high volume of daily edits. To address this challenge, we introduce a multilingual machine learning system to assist editors in identifying claims requiring citations. Our approach is tested in 10 language editions of Wikipedia, outperforming existing benchmarks for reference need assessment. We not only consider machine learning evaluation metrics but also system requirements, allowing us to explore the trade-offs between model accuracy and computational efficiency under real-world infrastructure constraints. We deploy our system in production and release data and code to support further research.
- Abstract(参考訳): Wikipediaはウェブ上の何百万ものユーザーにとって重要な情報源だ。
大規模な言語モデル、検索エンジン、質問応答システム、その他のWebベースのアプリケーションのための重要なリソースとして機能する。
ウィキペディアでは、コンテンツは検証されなければなりません。つまり、読者は信頼できる情報源への参照によってクレームが裏付けられていることを確認できます。
これは編集者による手作業による検証に依存しており、特に日々の編集量が多いことを考えると、効果的だが労働集約的なプロセスである。
この課題に対処するために,編集者が引用を必要とするクレームを識別するのを支援する多言語機械学習システムを導入する。
われわれのアプローチはWikipediaの10の言語版でテストされており、既存の基準要求評価ベンチマークよりも優れている。
機械学習評価のメトリクスだけでなく,システム要件も考慮し,実世界のインフラストラクチャ制約下でのモデル精度と計算効率のトレードオフについて検討する。
当社のシステムを本番環境にデプロイし、さらなる研究を支援するためにデータとコードをリリースしています。
関連論文リスト
- Selecting Language Models for Social Science: Start Small, Start Open, and Validate [0.3823356975862005]
我々は、社会科学者が計算方法(ポスト)の検証を完全に避けることはできないと論じる。
言語モデルの使用を必要とする特定の発見を確実に再現できるためには、タスクを確実に再現する必要がある。
より小型でオープンなモデルから始め、計算パイプライン全体の妥当性を示すベンチマークを構築することを提案する。
論文 参考訳(メタデータ) (2026-01-16T01:01:47Z) - Linguistic Nepotism: Trading-off Quality for Language Preference in Multilingual RAG [55.258582772528506]
異なる文書言語の混合が意図しない方法で生成と引用に影響を及ぼすかどうかを検討する。
8つの言語と6つのオープンウェイトモデルにまたがって、クエリが英語である場合、モデルは優先的に英語ソースを引用する。
モデルが言語嗜好のトレードオフ文書関連性を示すことがあり、引用選択が情報のみによって常に駆動されるわけではないことが分かる。
論文 参考訳(メタデータ) (2025-09-17T12:58:18Z) - DocReLM: Mastering Document Retrieval with Language Model [49.847369507694154]
本研究では,大規模言語モデルを利用することで,文書検索システムが高度な意味理解能力を実現することを実証する。
我々のアプローチは、大規模言語モデルによって生成されたドメイン固有データを用いて、検索者と再ランカを訓練することである。
我々は、量子物理学とコンピュータビジョンの分野の研究者によって注釈付けされたテストセットを使用して、システムの性能を評価する。
論文 参考訳(メタデータ) (2024-05-19T06:30:22Z) - Pre-training Cross-lingual Open Domain Question Answering with Large-scale Synthetic Supervision [44.04243892727856]
言語間のオープンドメイン質問応答は複雑な問題である。
CLQAは単一エンコーダデコーダモデルを用いて処理可能であることを示す。
ウィキペディア内の言語間リンク構造を利用した自己教師型手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T11:42:29Z) - Improving Multilingual Neural Machine Translation System for Indic
Languages [0.0]
低リソース言語翻訳に関わる問題に対処する多言語ニューラルマシン翻訳(MNMT)システムを提案する。
提案モデルの実現には最先端のトランスフォーマーアーキテクチャを用いる。
大量のデータに対する試行は、従来のモデルよりもその優位性を明らかにしている。
論文 参考訳(メタデータ) (2022-09-27T09:51:56Z) - Considerations for Multilingual Wikipedia Research [1.5736899098702972]
ウィキペディアの非英語版は、データセットやモデルにさらに多くの言語版が組み込まれている。
本論文は,ウィキペディアの異なる言語版間でどのような違いが生じるのか,研究者が理解するための背景を提供することを目的とする。
論文 参考訳(メタデータ) (2022-04-05T20:34:15Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Transfer Learning for Mining Feature Requests and Bug Reports from
Tweets and App Store Reviews [4.446419663487345]
既存のアプローチでは、リコールと許容精度の高い機能要求やバグレポートの検出に失敗している。
我々は単言語と多言語の両方のBERTモデルを訓練し、その性能を最先端の手法と比較する。
論文 参考訳(メタデータ) (2021-08-02T06:51:13Z) - Curious Case of Language Generation Evaluation Metrics: A Cautionary
Tale [52.663117551150954]
イメージキャプションや機械翻訳などのタスクを評価するデファクトメトリクスとして、いくつかの一般的な指標が残っている。
これは、使いやすさが原因でもあり、また、研究者がそれらを見て解釈する方法を知りたがっているためでもある。
本稿では,モデルの自動評価方法について,コミュニティにより慎重に検討するよう促す。
論文 参考訳(メタデータ) (2020-10-26T13:57:20Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。