論文の概要: Large language models can rate news outlet credibility
- arxiv url: http://arxiv.org/abs/2304.00228v1
- Date: Sat, 1 Apr 2023 05:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 19:13:50.859963
- Title: Large language models can rate news outlet credibility
- Title(参考訳): 大規模言語モデルはニュースソースの信頼性を評価できる
- Authors: Kai-Cheng Yang and Filippo Menczer
- Abstract要約: 大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて例外的な性能を示している。
ここでは、著名なLCMであるChatGPTが、ニュースメディアの信頼性を評価することができるかどうかを評価する。
以上の結果から,これらの評価は人的専門家の評価と相関していることがわかった。
- 参考スコア(独自算出の注目度): 6.147741269183294
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although large language models (LLMs) have shown exceptional performance in
various natural language processing tasks, they are prone to hallucinations.
State-of-the-art chatbots, such as the new Bing, attempt to mitigate this issue
by gathering information directly from the internet to ground their answers. In
this setting, the capacity to distinguish trustworthy sources is critical for
providing appropriate accuracy contexts to users. Here we assess whether
ChatGPT, a prominent LLM, can evaluate the credibility of news outlets. With
appropriate instructions, ChatGPT can provide ratings for a diverse set of news
outlets, including those in non-English languages and satirical sources, along
with contextual explanations. Our results show that these ratings correlate
with those from human experts (Spearmam's $\rho=0.54, p<0.001$). These findings
suggest that LLMs could be an affordable reference for credibility ratings in
fact-checking applications. Future LLMs should enhance their alignment with
human expert judgments of source credibility to improve information accuracy.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて例外的な性能を示したが、幻覚の傾向にある。
新しいBingのような最先端のチャットボットは、インターネットから直接情報を収集して回答を土台にすることでこの問題を緩和しようとしている。
この設定では、信頼できる情報源を識別する能力は、ユーザに適切な精度のコンテキストを提供することに不可欠である。
ここでは、著名なLCMであるChatGPTが、ニュースメディアの信頼性を評価することができるかどうかを評価する。
適切な指示により、ChatGPTは、文脈的説明とともに、非英語や風刺的な情報源を含む様々なニュースメディアに対して評価を提供することができる。
以上の結果から, これらの評価は人間の専門家(Spearmam's $\rho=0.54, p<0.001$)と相関することがわかった。
これらの結果から,LCMはファクトチェックアプリケーションにおける信頼性評価の安価な基準となる可能性が示唆された。
将来のllmは、情報精度を向上させるために、情報源信頼性の人間的専門家判断との整合を強化するべきである。
関連論文リスト
- Fact or Fiction? Can LLMs be Reliable Annotators for Political Truths? [2.321323878201932]
政治的誤報は民主的プロセスに挑戦し、世論を形成し、メディアを信頼する。
本研究では,ニュース記事の政治的事実を検出するための信頼性アノテータとして,最先端の大規模言語モデル (LLM) を用いることを検討した。
論文 参考訳(メタデータ) (2024-11-08T18:36:33Z) - From Deception to Detection: The Dual Roles of Large Language Models in Fake News [0.20482269513546458]
フェイクニュースは、情報エコシステムと公衆信頼の整合性に重大な脅威をもたらす。
LLM(Large Language Models)の出現は、フェイクニュースとの戦いを変革する大きな可能性を秘めている。
本稿では,偽ニュースに効果的に対処する各種LLMの能力について検討する。
論文 参考訳(メタデータ) (2024-09-25T22:57:29Z) - A Multi-LLM Debiasing Framework [85.17156744155915]
大規模言語モデル(LLM)は、社会に多大な利益をもたらす可能性がある強力なツールであるが、社会的不平等を持続するバイアスを示す。
近年,マルチLLM手法への関心が高まっており,推論の質向上に有効であることが示されている。
LLMのバイアス低減を目的としたマルチLLMデバイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T20:24:50Z) - Bias in LLMs as Annotators: The Effect of Party Cues on Labelling Decision by Large Language Models [0.0]
我々は、Large Language Models (LLMs) において同様のバイアスをアノテーションとしてテストする。
人間とは違い、極端に左派や右派からの発言を誘発しても、LSMは顕著な偏見を呈する。
論文 参考訳(メタデータ) (2024-08-28T16:05:20Z) - Large Language Models' Detection of Political Orientation in Newspapers [0.0]
新聞の立場をよりよく理解するための様々な方法が開発されている。
LLM(Large Language Models)の出現は、研究者や市民を補助する破壊的な可能性を秘めている。
我々は,広く採用されている4つのLCMが新聞の位置づけを評価する方法を比較し,その回答が相互に一致しているかどうかを比較する。
膨大なデータセットを通じて、新聞の記事は単一のLCMによって著しく異なる位置に配置され、アルゴリズムの一貫性のないトレーニングや過度なランダム性を示唆している。
論文 参考訳(メタデータ) (2024-05-23T06:18:03Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - TrustLLM: Trustworthiness in Large Language Models [446.5640421311468]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。