論文の概要: SciCom Wiki: Fact-Checking and FAIR Knowledge Distribution for Scientific Videos and Podcasts
- arxiv url: http://arxiv.org/abs/2505.07912v1
- Date: Mon, 12 May 2025 13:38:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.281512
- Title: SciCom Wiki: Fact-Checking and FAIR Knowledge Distribution for Scientific Videos and Podcasts
- Title(参考訳): SciCom Wiki:科学ビデオとポッドキャストのためのFact-CheckingとFAIR知識分布
- Authors: Tim Wittenborg, Constantin Sebastian Tremel, Niklas Stehr, Oliver Karras, Markus Stocker, Sören Auer,
- Abstract要約: 私たちは、SciCom Knowledge Infrastructureを、中央で協調的なプラットフォームであるSciCom Wikiでサポートすることにしました。
以上の結果から,SciCom KIを体系的に支援する必要性がいくつか見出された。
我々のシステムは、中央知識ノードを提供することができるが、差し迫った(ミス)情報洪水に対処するためには、協調的な努力が必要である。
- 参考スコア(独自算出の注目度): 0.39583175274885335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Democratic societies need accessible, reliable information. Videos and Podcasts have established themselves as the medium of choice for civic dissemination, but also as carriers of misinformation. The emerging Science Communication Knowledge Infrastructure (SciCom KI) curating non-textual media is still fragmented and not adequately equipped to scale against the content flood. Our work sets out to support the SciCom KI with a central, collaborative platform, the SciCom Wiki, to facilitate FAIR (findable, accessible, interoperable, reusable) media representation and the fact-checking of their content, particularly for videos and podcasts. Building an open-source service system centered around Wikibase, we survey requirements from 53 stakeholders, refine these in 11 interviews, and evaluate our prototype based on these requirements with another 14 participants. To address the most requested feature, fact-checking, we developed a neurosymbolic computational fact-checking approach, converting heterogenous media into knowledge graphs. This increases machine-readability and allows comparing statements against equally represented ground-truth. Our computational fact-checking tool was iteratively evaluated through 10 expert interviews, a public user survey with 43 participants verified the necessity and usability of our tool. Overall, our findings identified several needs to systematically support the SciCom KI. The SciCom Wiki, as a FAIR digital library complementing our neurosymbolic computational fact-checking framework, was found suitable to address the raised requirements. Further, we identified that the SciCom KI is severely underdeveloped regarding FAIR knowledge and related systems facilitating its collaborative creation and curation. Our system can provide a central knowledge node, yet a collaborative effort is required to scale against the imminent (mis-)information flood.
- Abstract(参考訳): 民主社会はアクセス可能で信頼できる情報を必要としている。
ビデオやポッドキャストは、市民の拡散の媒体としての地位を確立してきたが、誤報のキャリアとしての地位を確立している。
非テクストメディアをキュレートするSciCom KI(SciCom Science Communication Knowledge Infrastructure)は、まだ断片化されており、コンテンツ洪水に対して適切に対応できていない。
我々の研究は、SciCom KIを中心的で協調的なプラットフォームであるSciCom Wikiでサポートし、FAIR(ファイナブル、アクセス可能、相互運用可能、再利用可能な)メディア表現と、特にビデオやポッドキャストのファクトチェックを容易にすることを目指しています。
Wikibaseを中心にしたオープンソースのサービスシステムを構築し、53人の利害関係者の要件を調査し、11回のインタビューでそれらを洗練し、さらに14人の参加者とともに、これらの要件に基づいてプロトタイプを評価します。
最も要求された機能であるファクトチェックに対処するため,我々は,異種メディアを知識グラフに変換するニューロシンボリックな計算ファクトチェック手法を開発した。
これにより機械可読性が向上し、ステートメントを等しく表される接地真実と比較することができる。
コンピュータファクトチェックツールを10名の専門家インタビューを通じて反復的に評価し,43名の参加者を対象に公開ユーザ調査を行い,ツールの必要性とユーザビリティを検証した。
以上の結果から,SciCom KIを体系的に支援する必要性が指摘された。
SciCom Wikiは、私たちのニューロシンボリックな計算事実チェックフレームワークを補完するFAIRデジタルライブラリとして、その要求に対処するのに適していることがわかった。
さらに,SciCom KIはFAIRの知識や,その共同作成やキュレーションを促進する関連システムに関して,極めて過小評価されていることも確認した。
我々のシステムは、中央知識ノードを提供することができるが、差し迫った(ミス)情報洪水に対処するためには、協調的な努力が必要である。
関連論文リスト
- Computational Fact-Checking of Online Discourse: Scoring scientific accuracy in climate change related news articles [0.14999444543328289]
本研究は,オンラインメディアの科学的精度の定量化を目的とする。
未知の正確性のメディアをセマンティフィケーションすることで、それらのステートメントを等しく処理された信頼できるソースと比較することができる。
論文 参考訳(メタデータ) (2025-05-12T10:03:15Z) - Crowd Intelligence for Early Misinformation Prediction on Social Media [29.494819549803772]
本稿では,クラウドインテリジェンスに基づく早期誤報予測手法であるCROWDSHIELDを紹介する。
私たちは2つの次元(スタンスとクレーム)を捉えるためにQラーニングを採用しています。
我々は手動で誤情報検出を行うTwitterコーパスであるMISTを提案する。
論文 参考訳(メタデータ) (2024-08-08T13:45:23Z) - EWEK-QA: Enhanced Web and Efficient Knowledge Graph Retrieval for Citation-based Question Answering Systems [103.91826112815384]
引用ベースのQAシステムは2つの欠点に悩まされている。
彼らは通常、抽出された知識の源としてWebにのみ依存し、外部の知識ソースを追加することで、システムの効率を損なう。
システムに供給された知識の内容を充実させるため,Web と 効率的な知識グラフ (KG) 検索ソリューション (EWEK-QA) を提案する。
論文 参考訳(メタデータ) (2024-06-14T19:40:38Z) - SciFIBench: Benchmarking Large Multimodal Models for Scientific Figure Interpretation [50.061029816288936]
SciFIBenchは、2000の質問を8つのカテゴリに分けた科学的図形解釈ベンチマークである。
質問はarXiv紙のフィギュアとキャプションからキュレートされ、相手のフィルターを使ってハードネガティブを見つけ、品質管理のための人間による検証を行う。
我々はSciFIBench上で28LMMを評価し、これは挑戦的なベンチマークであることが判明した。
論文 参考訳(メタデータ) (2024-05-14T17:54:17Z) - Wikibench: Community-Driven Data Curation for AI Evaluation on Wikipedia [39.02973945237259]
ウィキベンチは,コミュニティが協調してAI評価データセットをキュレートすることを可能にするシステムである。
Wikipediaのフィールドスタディによると、Wikibenchを使ってキュレートされたデータセットは、コミュニティのコンセンサス、不一致、不確実性を効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-02-21T22:10:21Z) - DeepShovel: An Online Collaborative Platform for Data Extraction in
Geoscience Literature with AI Assistance [48.55345030503826]
地質学者は、関連する結果やデータを発見、抽出、集約するために膨大な量の文献を読む必要がある。
DeepShovelは、彼らのニーズをサポートするAI支援データ抽出システムである。
14人の研究者によるユーザ評価の結果、DeepShovelは科学データベース構築のためのデータ抽出の効率を改善した。
論文 参考訳(メタデータ) (2022-02-21T12:18:08Z) - Extracting a Knowledge Base of Mechanisms from COVID-19 Papers [50.17242035034729]
我々はメカニズムの知識ベース(KB)の構築を追求する。
我々は、妥当性と幅のバランスをとる広範で統一されたスキーマを開発する。
実験は、新型コロナウイルスの文献に関する学際的な科学的検索を支援するためのKBの有用性を実証する。
論文 参考訳(メタデータ) (2020-10-08T07:54:14Z) - Linked Credibility Reviews for Explainable Misinformation Detection [1.713291434132985]
本稿では,誤情報検出に協力する分散ボットのネットワーク構築に使用できるCR(Credibility Reviews)のコアコンセプトに基づくアーキテクチャを提案する。
CRは、(i)Webコンテンツのグラフを構成するためのビルディングブロックとして機能し、(ii)既存の信頼性信号 --fact-checked claimsとWebサイトの評判評価 -- を構成し、(iii)自動的に計算されたレビューを生成する。
このアーキテクチャは、.orgへの軽量な拡張と、意味的類似性と姿勢検出のための汎用的なNLPタスクを提供するサービスの上に実装されている。
論文 参考訳(メタデータ) (2020-08-28T16:55:43Z) - COVID-19 Knowledge Graph: Accelerating Information Retrieval and
Discovery for Scientific Literature [23.279540233851993]
新型コロナウイルス(COVID-19)の感染者は35万人を超え、全世界で600万人以上が感染している。
新型コロナウイルス(COVID-19)で急速に成長しているコーパスから情報を見つけ出すための追加のツールを研究者に提供するために、いくつかの検索エンジンが浮上した。
我々は、COVID-19の記事間の複雑な関係を抽出し視覚化するための異種グラフである、CKG(COVID-19 Knowledge Graph)を提示する。
論文 参考訳(メタデータ) (2020-07-24T18:29:43Z) - Fact or Fiction: Verifying Scientific Claims [53.29101835904273]
本稿では,研究文献から,REFUTESやREFUTESが与えられた科学的主張であることを示す証拠を含む抄録を抽出する新たな課題である,科学的クレーム検証を紹介する。
SciFactは、1.4Kの専門家による科学的主張と、ラベルや合理性に注釈を付けたエビデンスを含む抽象概念を組み合わせたデータセットである。
このシステムは,CORD-19コーパスの証拠を同定することにより,新型コロナウイルス関連クレームを検証可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T17:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。