論文の概要: The CLEF-2026 CheckThat! Lab: Advancing Multilingual Fact-Checking
- arxiv url: http://arxiv.org/abs/2602.09516v1
- Date: Tue, 10 Feb 2026 08:20:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.444594
- Title: The CLEF-2026 CheckThat! Lab: Advancing Multilingual Fact-Checking
- Title(参考訳): CLEF-2026 CheckThat! Lab:多言語Fact-Checkingの改良
- Authors: Julia Maria Struß, Sebastian Schellhammer, Stefan Dietze, Venktesh V, Vinay Setty, Tanmoy Chakraborty, Preslav Nakov, Avishek Anand, Primakov Chungkham, Salim Hafid, Dhruv Sahnan, Konstantin Todorov,
- Abstract要約: CheckThat!ラボは、オンラインコミュニケーションにおける偽情報と操作の取り組みと戦う革新的な技術の開発を進めることを目的としている。
今年のエディションでは、検証パイプラインが、次のタスクで再び中心に置かれている。
これらのタスクは、文書とスパンのレベルで、多言語設定を含む、挑戦的な分類と検索の問題を表現している。
- 参考スコア(独自算出の注目度): 58.93871662838964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The CheckThat! lab aims to advance the development of innovative technologies combating disinformation and manipulation efforts in online communication across a multitude of languages and platforms. While in early editions the focus has been on core tasks of the verification pipeline (check-worthiness, evidence retrieval, and verification), in the past three editions, the lab added additional tasks linked to the verification process. In this year's edition, the verification pipeline is at the center again with the following tasks: Task 1 on source retrieval for scientific web claims (a follow-up of the 2025 edition), Task 2 on fact-checking numerical and temporal claims, which adds a reasoning component to the 2025 edition, and Task 3, which expands the verification pipeline with generation of full-fact-checking articles. These tasks represent challenging classification and retrieval problems as well as generation challenges at the document and span level, including multilingual settings.
- Abstract(参考訳): CheckThat!ラボは、さまざまな言語やプラットフォームにわたるオンラインコミュニケーションにおいて、偽情報や操作と戦う革新的な技術の開発を進めることを目的としている。
初期のバージョンでは、検証パイプラインの中核的なタスク(チェックの信頼性、エビデンス検索、検証)に焦点が当てられていたが、この3つのエディションでは、検証プロセスに関連する追加タスクが追加されている。
科学的Webクレームのソース検索(2025年版の後継)のタスク1、事実チェックの数値と時間的クレームのタスク2、2025年版に理由付けコンポーネントを追加するタスク3。
これらのタスクは、文書とスパンのレベルで、多言語設定を含む、挑戦的な分類と検索の問題を表現している。
関連論文リスト
- The CLEF-2025 CheckThat! Lab: Subjectivity, Fact-Checking, Claim Normalization, and Retrieval [47.46368856874347]
CheckThat! Labは、オンラインの偽情報の特定と対策を目的とした技術の開発を進めることを目指している。
2023年版以降、研究と検証の意思決定を支援する補助的なタスクに対処する範囲を拡大した。
2025年版では、コア検証タスクを見直し、補助的な課題も検討している。
論文 参考訳(メタデータ) (2025-03-19T02:06:07Z) - Text Generation: A Systematic Literature Review of Tasks, Evaluation, and Challenges [7.140449861888235]
このレビューでは、テキスト生成の作業を5つの主要なタスクに分類する。
各タスクについて、関連する特徴、サブタスク、および特定の課題についてレビューする。
近年のテキスト生成論文では,タスクやサブタスクに共通する9つの顕著な課題が報告されている。
論文 参考訳(メタデータ) (2024-05-24T14:38:11Z) - FacTool: Factuality Detection in Generative AI -- A Tool Augmented
Framework for Multi-Task and Multi-Domain Scenarios [87.12753459582116]
より広い範囲のタスクは、生成モデルによって処理されると、事実エラーを含むリスクが増大する。
大規模言語モデルにより生成されたテキストの事実誤りを検出するためのタスクおよびドメインに依存しないフレームワークであるFacToolを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:51Z) - Recent Advances in Direct Speech-to-text Translation [58.692782919570845]
我々は、既存の研究成果を、モデリングの負担、データの不足、アプリケーション問題という3つの課題に基づいて分類する。
データ不足の課題に対して、最近の研究は、データ強化、事前学習、知識蒸留、多言語モデリングなど、多くの高度な技術を活用している。
我々は、リアルタイム、セグメンテーション、名前付きエンティティ、性別バイアス、コードスイッチングなど、アプリケーションの問題を分析して要約する。
論文 参考訳(メタデータ) (2023-06-20T16:14:27Z) - FETA: A Benchmark for Few-Sample Task Transfer in Open-Domain Dialogue [70.65782786401257]
本研究は、オープンドメイン対話における少数サンプルタスク転送のベンチマークであるFETAを導入することにより、対話型タスク転送について検討する。
FETAには10タスクと7タスクがアノテートされた2つの基礎的な会話が含まれており、データセット内タスク転送の研究を可能にする。
3つの人気のある言語モデルと3つの学習アルゴリズムを用いて、132のソースターゲットタスクペア間の転送可能性を分析する。
論文 参考訳(メタデータ) (2022-05-12T17:59:00Z) - Overview of CheckThat! 2020: Automatic Identification and Verification
of Claims in Social Media [26.60148306714383]
CLEF 2020にて,CheckThat! Labの第3版の概要を紹介する。
この研究室は英語とアラビア語の2つの異なる言語で5つのタスクをこなした。
本稿では,課題設定,評価結果,参加者が使用するアプローチの概要について述べる。
論文 参考訳(メタデータ) (2020-07-15T21:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。