論文の概要: Experimenting AI Technologies for Disinformation Combat: the IDMO
Project
- arxiv url: http://arxiv.org/abs/2310.11097v4
- Date: Wed, 8 Nov 2023 09:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 18:45:12.561183
- Title: Experimenting AI Technologies for Disinformation Combat: the IDMO
Project
- Title(参考訳): 偽情報コンバットのためのAI技術の実験:IDMOプロジェクト
- Authors: Lorenzo Canale, Alberto Messina
- Abstract要約: イタリアのデジタルメディア・オブザーバ(IDMO)プロジェクトは偽ニュースや偽ニュースに対抗することに焦点を当てている。
この記事では、Rai-CRITSからプロジェクトへのコントリビューションの概要を紹介する。
- 参考スコア(独自算出の注目度): 0.5950928230601965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Italian Digital Media Observatory (IDMO) project, part of a European
initiative, focuses on countering disinformation and fake news. This report
outlines contributions from Rai-CRITS to the project, including: (i) the
creation of novel datasets for testing technologies (ii) development of an
automatic model for categorizing Pagella Politica verdicts to facilitate
broader analysis (iii) creation of an automatic model for recognizing textual
entailment with exceptional accuracy on the FEVER dataset (iv) assessment using
GPT-4 to identify textual entailmen (v) a game to raise awareness about fake
news at national events.
- Abstract(参考訳): イタリアのデジタルメディア天文台(IDMO)プロジェクトは、偽情報や偽ニュースに対抗することに焦点を当てている。
本報告では,プロジェクトへのrai-critsからの貢献について概説する。
(i)試験技術のための新規データセットの作成
(ii)幅広い分析を容易にするためにpagella politica verdictsを分類する自動モデルの開発
(iii)フィーバーデータセットにおける例外的正確性を伴う文章の包含認識のための自動モデルの作成
4) GPT-4 を用いたテキスト・エントリメンの識別
(v)全国のイベントで偽ニュースに対する意識を高めるゲーム。
関連論文リスト
- Automatic Evaluation for Text-to-image Generation: Task-decomposed Framework, Distilled Training, and Meta-evaluation Benchmark [62.58869921806019]
GPT-4oに基づくタスク分解評価フレームワークを提案し、新しいトレーニングデータセットを自動構築する。
我々は、GPT-4oの評価能力を7BオープンソースMLLM、MiniCPM-V-2.6に効果的に蒸留するための革新的なトレーニング戦略を設計する。
実験結果から,我々の蒸留したオープンソースMLLMは,現在のGPT-4oベースラインよりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-23T08:06:06Z) - PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - Instruction Finetuning for Leaderboard Generation from Empirical AI Research [0.16114012813668935]
本研究では,Large Language Models (LLMs) の命令微調整によるAI研究リーダボード生成の自動化を実証する。
それは、従来の手動のコミュニティキュレーションから移行することで、AI研究の進歩の広めを合理化することを目的としている。
論文 参考訳(メタデータ) (2024-08-19T16:41:07Z) - FakeWatch: A Framework for Detecting Fake News to Ensure Credible Elections [5.15641542196944]
フェイクニュースを検出するために慎重に設計された包括的フレームワークであるFakeWatchを紹介する。
我々のフレームワークは、従来の機械学習(ML)技術と最先端言語モデル(LM)の両方からなるモデルハブを統合している。
本研究の目的は,選挙議題における偽ニュースの特定に有効な,適応的で正確な分類モデルを提供することである。
論文 参考訳(メタデータ) (2024-03-14T20:39:26Z) - 'Don't Get Too Technical with Me': A Discourse Structure-Based Framework
for Science Journalism [36.16009435194716]
科学ジャーナリズム(英: science journalism)とは、科学論文の技術的発見を、より専門的なニュース記事として一般大衆に報告するタスクである。
我々は,この現実的なタスク(すなわち,科学ジャーナリズム)を支援する自動化システムを,公開可能な科学論文,対応するニュース記事,専門家による要約スニペットのオーディエンスに導入することを目的としている。
論文 参考訳(メタデータ) (2023-10-23T16:35:05Z) - RMDM: A Multilabel Fakenews Dataset for Vietnamese Evidence Verification [4.81761484868467]
本稿では,大規模言語モデル(LLM)の性能評価を目的とした,新しいマルチラベルベトナム語データセット(RMDM)を提案する。
データセットは4つのラベルからなり、実際の情報、誤情報、偽情報、誤情報を表す。
GPTベースのモデルとBERTベースのモデルを用いたデータセットの予備的なテストでは、異なるラベル間でモデルのパフォーマンスが変動していることが示され、これらの情報の真正性を検証するために、データセットが様々な言語モデルの能力に効果的に挑戦していることが示されている。
論文 参考訳(メタデータ) (2023-09-16T18:35:08Z) - INTERACTION: A Generative XAI Framework for Natural Language Inference
Explanations [58.062003028768636]
現在のXAIアプローチは、ひとつの説明を提供することにのみ焦点をあてています。
本稿では、生成型XAIフレームワーク、InterACTION(explaIn aNd predicT thEn queRy with contextuAl CondiTional variational autO-eNcoder)を提案する。
提案するフレームワークは,説明とラベル予測の2つのステップ,および(ステップ2)異種証拠生成の2つのステップで説明を行う。
論文 参考訳(メタデータ) (2022-09-02T13:52:39Z) - Natural Language Inference with Self-Attention for Veracity Assessment
of Pandemic Claims [54.93898455714295]
まず、COVID-19に関する異質なクレームからなる新しいPANACEAデータセットの構築について述べる。
そこで我々は,自然言語推論に基づく自動妥当性評価のための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-05T12:11:31Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。