論文の概要: Improving Wikipedia Verifiability with AI
- arxiv url: http://arxiv.org/abs/2207.06220v1
- Date: Fri, 8 Jul 2022 15:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 16:03:12.796853
- Title: Improving Wikipedia Verifiability with AI
- Title(参考訳): AIによるウィキペディアの検証性向上
- Authors: Fabio Petroni, Samuel Broscheit, Aleksandra Piktus, Patrick Lewis,
Gautier Izacard, Lucas Hosseini, Jane Dwivedi-Yu, Maria Lomeli, Timo Schick,
Pierre-Emmanuel Mazar\'e, Armand Joulin, Edouard Grave, Sebastian Riedel
- Abstract要約: 私たちはSideと呼ばれるニューラルネットワークベースのシステムを開発し、彼らの主張を支持できないWikipediaの引用を識別する。
本誌の最初の引用レコメンデーションは、既存のWikipediaの引用よりも60%多い選好を集めている。
以上の結果から,Wikipediaの妥当性を高めるために,AIベースのシステムを人間と共同で活用できることが示唆された。
- 参考スコア(独自算出の注目度): 116.69749668874493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Verifiability is a core content policy of Wikipedia: claims that are likely
to be challenged need to be backed by citations. There are millions of articles
available online and thousands of new articles are released each month. For
this reason, finding relevant sources is a difficult task: many claims do not
have any references that support them. Furthermore, even existing citations
might not support a given claim or become obsolete once the original source is
updated or deleted. Hence, maintaining and improving the quality of Wikipedia
references is an important challenge and there is a pressing need for better
tools to assist humans in this effort. Here, we show that the process of
improving references can be tackled with the help of artificial intelligence
(AI). We develop a neural network based system, called Side, to identify
Wikipedia citations that are unlikely to support their claims, and subsequently
recommend better ones from the web. We train this model on existing Wikipedia
references, therefore learning from the contributions and combined wisdom of
thousands of Wikipedia editors. Using crowd-sourcing, we observe that for the
top 10% most likely citations to be tagged as unverifiable by our system,
humans prefer our system's suggested alternatives compared to the originally
cited reference 70% of the time. To validate the applicability of our system,
we built a demo to engage with the English-speaking Wikipedia community and
find that Side's first citation recommendation collects over 60% more
preferences than existing Wikipedia citations for the same top 10% most likely
unverifiable claims according to Side. Our results indicate that an AI-based
system could be used, in tandem with humans, to improve the verifiability of
Wikipedia. More generally, we hope that our work can be used to assist fact
checking efforts and increase the general trustworthiness of information
online.
- Abstract(参考訳): 検証可能性(Verifiability)はWikipediaの中核的なコンテンツポリシーである。
オンラインには何百万もの記事があり、毎月何千もの新しい記事がリリースされている。
そのため、関連するソースを見つけることは難しい作業である。多くのクレームはそれらをサポートする参照を持っていない。
さらに、既存の引用でさえ、元のソースが更新されたり削除されたりすると、特定のクレームをサポートできなくなるかもしれない。
したがって、ウィキペディアの参照の質の維持と改善は重要な課題であり、この取り組みにおいて人間を支援するためのより良いツールが必要である。
ここでは、人工知能(AI)の助けを借りて、参照を改善するプロセスに取り組むことができることを示す。
私たちはSideと呼ばれるニューラルネットワークベースのシステムを開発し、彼らの主張を支持できないWikipediaの引用を識別し、Webからより良い引用を推奨します。
私たちは、このモデルを既存のwikipediaリファレンスでトレーニングし、数千人のウィキペディア編集者の貢献と知識から学びます。
クラウドソーシング(crowd-sourcing, クラウドソーシング, クラウドソーシング)を用いて, 最上位10%の引用が我々のシステムによって検証できないとタグ付けされる場合, 人間は我々のシステムの提案する代替手段を好む。
システムの適用性を検証するために、我々は英語圏のウィキペディアコミュニティと関わり、Sideの最初の引用レコメンデーションが既存のウィキペディアの引用よりも60%以上の好ましくないクレームを収集するデモを構築した。
以上の結果から,Wikipediaの妥当性を高めるために,AIベースのシステムを人間と共同で活用できることが示唆された。
より一般的には、私たちの仕事が事実チェックの取り組みを支援し、オンラインでの情報の信頼性を高めるのに役立つことを願っています。
関連論文リスト
- Forgotten Knowledge: Examining the Citational Amnesia in NLP [63.13508571014673]
論文を引用するのにどれくらいの時間がかかったのか、どのようにして変化したのか、そしてこの引用的注意/記憶に相関する要因は何か。
引用論文の約62%が出版直前の5年間のものであり,約17%が10年以上前のものであることを示す。
1990年から2014年にかけて、引用論文の中央値と年齢の多様性は着実に増加してきたが、その後傾向が逆転し、現在のNLP論文は、時間的引用の多様性が極端に低い。
論文 参考訳(メタデータ) (2023-05-29T18:30:34Z) - Longitudinal Assessment of Reference Quality on Wikipedia [7.823541290904653]
この研究は、その参照のレンズを通して、このグローバル百科事典の信頼性を分析する。
我々は、参照要求(RN)、すなわち引用を欠く文の割合、参照リスク(RR)、すなわち非権威的参照の割合を定義することで、参照品質の概念を運用する。
論文 参考訳(メタデータ) (2023-03-09T13:04:14Z) - Surfer100: Generating Surveys From Web Resources on Wikipedia-style [49.23675182917996]
先進言語モデリングの最近の進歩は、ウィキペディアのリード段落生成のための2段階の抽出的抽象的アプローチと組み合わせることができることを示す。
提案手法は,より長いウィキペディアスタイルの要約をセクションで生成するために拡張され,100件の人文調査による詳細な研究を通じて,このような手法が本アプリケーションでどのように苦しむかを検討する。
論文 参考訳(メタデータ) (2021-12-13T02:18:01Z) - Towards generating citation sentences for multiple references with
intent control [86.53829532976303]
We build a novel generation model with the Fusion-in-Decoder approach to handlee with multiple long inputs。
実験により,提案手法は引用文を生成するためのより包括的な特徴を提供することが示された。
論文 参考訳(メタデータ) (2021-12-02T15:32:24Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Wiki-Reliability: A Large Scale Dataset for Content Reliability on
Wikipedia [4.148821165759295]
我々は、幅広いコンテンツ信頼性の問題に注釈を付けた英語ウィキペディア記事の最初のデータセットを構築した。
このデータセットを構築するには、Wikipediaの「テンプレート」を利用します。
ウィキペディアで最も人気のある10の信頼性関連テンプレートを選択し、ウィキペディアの記事改訂のほぼ1Mのサンプルをポジティブまたはネガティブにラベル付ける効果的な方法を提案します。
論文 参考訳(メタデータ) (2021-05-10T05:07:03Z) - WhatTheWikiFact: Fact-Checking Claims Against Wikipedia [17.36054090232896]
ウィキペディアを用いた自動クレーム検証システムWhatTheWikiFactを提案する。
システムは、入力要求の信頼性を予測し、さらに、検証プロセスの一部として取得された証拠を示します。
論文 参考訳(メタデータ) (2021-04-16T12:23:56Z) - Design Challenges in Low-resource Cross-lingual Entity Linking [56.18957576362098]
言語間エンティティリンク (XEL) は、外国語テキスト中のエンティティの言及をウィキペディアのような英語の知識ベースに根拠付ける問題である。
本稿は、英語のウィキペディアの候補タイトルを、特定の外国語の言及に対応付けて識別する重要なステップに焦点を当てる。
本稿では,検索エンジンのクエリログを利用した簡易で効果的なゼロショットXELシステムQuELを提案する。
論文 参考訳(メタデータ) (2020-05-02T04:00:26Z) - Entity Extraction from Wikipedia List Pages [2.3605348648054463]
私たちは、DBpediaをバックボーンとして、カテゴリとリストページから大規模な分類を構築します。
遠隔監視により、リストページ内の新しいエンティティの識別のためのトレーニングデータを抽出する。
我々はDBpediaを7.5万の新しい型ステートメントと380万の高精度な新しい事実で拡張する。
論文 参考訳(メタデータ) (2020-03-11T07:48:46Z) - Quantifying Engagement with Citations on Wikipedia [13.703047949952852]
300ページビューの1つは、参照クリックの結果である。
クリックはより短いページや低い品質のページで頻繁に行われる。
最近のコンテンツ、オープンアクセスソース、ライフイベントに関する参考資料が特に人気である。
論文 参考訳(メタデータ) (2020-01-23T15:52:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。