論文の概要: A Survey on Automatic Credibility Assessment Using Textual Credibility Signals in the Era of Large Language Models
- arxiv url: http://arxiv.org/abs/2410.21360v2
- Date: Mon, 13 Oct 2025 15:25:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 14:23:56.668786
- Title: A Survey on Automatic Credibility Assessment Using Textual Credibility Signals in the Era of Large Language Models
- Title(参考訳): 大規模言語モデルにおけるテキストの可読性信号を用いた自動可読性評価に関する調査
- Authors: Ivan Srba, Olesya Razuvayevskaya, João A. Leite, Robert Moro, Ipek Baris Schlicht, Sara Tonelli, Francisco Moreno García, Santiago Barrio Lottmann, Denis Teyssou, Valentin Porcellini, Carolina Scarton, Kalina Bontcheva, Maria Bielikova,
- Abstract要約: ソーシャルメディアと生成AIの時代、オンラインコンテンツの信頼性を自動的に評価する能力はますます重要になっている。
信頼性評価は、様々な信頼性信号を最終的な信頼性ラベル/スコアに集約することに依存する。
複数の信頼性信号を同時に検出し、集約するアプローチは少ない。
- 参考スコア(独自算出の注目度): 17.09653593022644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the age of social media and generative AI, the ability to automatically assess the credibility of online content has become increasingly critical, complementing traditional approaches to false information detection. Credibility assessment relies on aggregating diverse credibility signals - small units of information, such as content subjectivity, bias, or a presence of persuasion techniques - into a final credibility label/score. However, current research in automatic credibility assessment and credibility signals detection remains highly fragmented, with many signals studied in isolation and lacking integration. Notably, there is a scarcity of approaches that detect and aggregate multiple credibility signals simultaneously. These challenges are further exacerbated by the absence of a comprehensive and up-to-date overview of research works that connects these research efforts under a common framework and identifies shared trends, challenges, and open problems. In this survey, we address this gap by presenting a systematic and comprehensive literature review of 175 research papers, focusing on textual credibility signals within the field of Natural Language Processing (NLP), which undergoes a rapid transformation due to advancements in Large Language Models (LLMs). While positioning the NLP research into the the broader multidisciplinary landscape, we examine both automatic credibility assessment methods as well as the detection of nine categories of credibility signals. We provide an in-depth analysis of three key categories: 1) factuality, subjectivity and bias, 2) persuasion techniques and logical fallacies, and 3) check-worthy and fact-checked claims. In addition to summarising existing methods, datasets, and tools, we outline future research direction and emerging opportunities, with particular attention to evolving challenges posed by generative AI.
- Abstract(参考訳): ソーシャルメディアと生成AIの時代において、オンラインコンテンツの信頼性を自動的に評価する能力はますます重要になってきており、偽情報検出に対する従来のアプローチを補完している。
信頼性評価は、コンテンツの主観性、偏見、説得技術の存在などの情報の小さな単位を最終的な信頼性ラベル/スコアに集約することに依存する。
しかし、信頼度自動評価と信頼度信号検出に関する現在の研究は、分離や統合の欠如など、非常に断片化されている。
特に、複数の信頼性信号を同時に検出し、集約するアプローチが不足している。
これらの課題は、これらの研究成果を共通の枠組みの下で結び付け、共通のトレンド、課題、オープンな問題を識別する、包括的で最新の研究成果の概観が欠如していることによってさらに悪化する。
本調査では,大規模言語モデル(LLM)の進歩によって急速に変化する自然言語処理(NLP)分野におけるテキストの信頼性信号に着目し,175件の研究論文の体系的かつ包括的な文献レビューを行うことにより,このギャップに対処する。
広域多分野のランドスケープにおけるNLP研究の位置づけにおいて,信頼性自動評価法と,信頼性信号の9つのカテゴリの検出について検討した。
3つの主要なカテゴリを詳細に分析する。
1)事実性、主観性、偏見
2 説得技術及び論理的誤信
3) 正当性及び事実確認のクレーム。
既存の手法、データセット、ツールの要約に加えて、我々は将来の研究方向性と新たな機会を概説し、生成AIがもたらす課題に特に注目する。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Towards Automated Situation Awareness: A RAG-Based Framework for Peacebuilding Reports [2.230742111425553]
本稿では,状況認識レポートを自律的に生成する動的検索・拡張生成システムを提案する。
本システムでは,要求に基づく問合せ固有の知識ベースを構築し,時間的,関連性,正確な洞察を確保する。
このシステムは、複数の実世界のシナリオでテストされ、一貫性があり、洞察力があり、実行可能なレポートを生成する効果を実証している。
論文 参考訳(メタデータ) (2025-05-14T16:36:30Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Is Trust Correlated With Explainability in AI? A Meta-Analysis [0.0]
我々は、AI説明可能性と信頼の関係を探るため、既存の文献を網羅的に調査する。
我々の分析では、90の研究データを取り入れた結果、AIシステムの説明可能性と彼らが与える信頼との間に統計的に有意だが適度な正の相関関係が明らかとなった。
この研究は、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進において、社会技術的に幅広い影響を強調している。
論文 参考訳(メタデータ) (2025-04-16T23:30:55Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - RelevAI-Reviewer: A Benchmark on AI Reviewers for Survey Paper Relevance [0.8089605035945486]
本稿では,調査論文レビューの課題を分類問題として概念化するシステムであるRelevAI-Reviewerを提案する。
25,164のインスタンスからなる新しいデータセットを導入する。各インスタンスには1つのプロンプトと4つの候補論文があり、それぞれがプロンプトに関連している。
我々は,各論文の関連性を判断し,最も関連性の高い論文を識別できる機械学習(ML)モデルを開発した。
論文 参考訳(メタデータ) (2024-06-13T06:42:32Z) - Exploring the Potential of the Large Language Models (LLMs) in Identifying Misleading News Headlines [2.0330684186105805]
本研究では、誤解を招くニュースの見出しと誤解を招くニュースの見出しを識別する上で、LLM(Large Language Models)の有効性について検討する。
解析の結果,ChatGPT-4の精度は良好であった。
論文 参考訳(メタデータ) (2024-05-06T04:06:45Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Maintaining Journalistic Integrity in the Digital Age: A Comprehensive
NLP Framework for Evaluating Online News Content [0.0]
本稿では,自然言語処理(NLP)技術を用いて,オンラインニューステキストの分析を行う包括的フレームワークを提案する。
このフレームワークには10のジャーナリズム標準、バランスと公正性、読みやすさと明快さ、センセーショナルとクリックベイト、倫理的考察、公共の関心と価値、情報源の信頼性、妥当性とタイムライン、事実の正確性、帰属と透明性が含まれる。
論文 参考訳(メタデータ) (2024-01-07T12:27:14Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - User Experience Design for Automatic Credibility Assessment of News
Content About COVID-19 [0.33262200259340124]
信頼性評価を提供するグラフィカルインタフェースのユーザビリティを評価するための実証的研究を2つ提案する。
評価尺度、サブ基準、アルゴリズムのオーサシップは、ユーザビリティの重要な予測因子である。
ニューステキストの著者は、コンテンツ品質を評価するために使用される信頼性アルゴリズムの著者よりも重要である。
論文 参考訳(メタデータ) (2022-04-29T08:38:45Z) - GO FIGURE: A Meta Evaluation of Factuality in Summarization [131.1087461486504]
本稿では,現実性評価指標を評価するメタ評価フレームワークGO FIGUREを紹介する。
10個の実測値のベンチマーク分析により、我々のフレームワークが堅牢で効率的な評価を提供することが明らかとなった。
また、QAメトリクスは、ドメイン間の事実性を測定する標準的なメトリクスよりも一般的に改善されているが、パフォーマンスは、質問を生成する方法に大きく依存していることも明らかにしている。
論文 参考訳(メタデータ) (2020-10-24T08:30:20Z) - Information Credibility in the Social Web: Contexts, Approaches, and
Open Issues [2.2133187119466116]
信頼性(英語: Cliability)とは、個人によって認識される品質であり、必ずしも自分の認知能力と偽の情報とを区別できるわけではない。
ソーシャルメディアにおける信頼性を自動的に評価するためのいくつかのアプローチが提案されている。
論文 参考訳(メタデータ) (2020-01-26T15:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。