論文の概要: Can Large Language Models Provide Security & Privacy Advice? Measuring
the Ability of LLMs to Refute Misconceptions
- arxiv url: http://arxiv.org/abs/2310.02431v1
- Date: Tue, 3 Oct 2023 20:54:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 17:30:49.646924
- Title: Can Large Language Models Provide Security & Privacy Advice? Measuring
the Ability of LLMs to Refute Misconceptions
- Title(参考訳): 大規模言語モデルはセキュリティとプライバシのアドバイスを提供できるか?
誤解を解消するLSMの能力の測定
- Authors: Yufan Chen, Arjun Arunasalam, Z. Berkay Celik
- Abstract要約: 大規模言語モデル(LLM)が信頼できる情報ソースとして最近登場した。
一般大衆が抱いている一般的なS&Pの誤解を解消する能力を測定する。
- 参考スコア(独自算出の注目度): 13.93127660179291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Users seek security & privacy (S&P) advice from online resources, including
trusted websites and content-sharing platforms. These resources help users
understand S&P technologies and tools and suggest actionable strategies. Large
Language Models (LLMs) have recently emerged as trusted information sources.
However, their accuracy and correctness have been called into question. Prior
research has outlined the shortcomings of LLMs in answering multiple-choice
questions and user ability to inadvertently circumvent model restrictions
(e.g., to produce toxic content). Yet, the ability of LLMs to provide reliable
S&P advice is not well-explored. In this paper, we measure their ability to
refute popular S&P misconceptions that the general public holds. We first study
recent academic literature to curate a dataset of over a hundred S&P-related
misconceptions across six different topics. We then query two popular LLMs
(Bard and ChatGPT) and develop a labeling guide to evaluate their responses to
these misconceptions. To comprehensively evaluate their responses, we further
apply three strategies: query each misconception multiple times, generate and
query their paraphrases, and solicit source URLs of the responses. Both models
demonstrate, on average, a 21.3% non-negligible error rate, incorrectly
supporting popular S&P misconceptions. The error rate increases to 32.6% when
we repeatedly query LLMs with the same or paraphrased misconceptions. We also
expose that models may partially support a misconception or remain
noncommittal, refusing a firm stance on misconceptions. Our exploration of
information sources for responses revealed that LLMs are susceptible to
providing invalid URLs (21.2% for Bard and 67.7% for ChatGPT) or point to
unrelated sources (44.2% returned by Bard and 18.3% by ChatGPT).
- Abstract(参考訳): ユーザーは、信頼できるウェブサイトやコンテンツ共有プラットフォームを含むオンラインリソースからセキュリティとプライバシ(S&P)アドバイスを求める。
これらのリソースは、ユーザがS&P技術やツールを理解し、実行可能な戦略を提案するのに役立つ。
大規模言語モデル(LLM)は、最近信頼できる情報ソースとして登場した。
しかし、その正確さと正確性は疑問視されている。
以前の研究では、複数の選択の質問に答える上でのLCMの欠点と、モデル制約(例えば有害なコンテンツを生み出すために)を不注意に回避するユーザ能力を概説している。
しかし、LSMsが信頼できるS&Pアドバイスを提供する能力は十分に探索されていない。
本稿では,一般市民が抱いている一般的なS&P誤解を解消する能力を測定する。
本稿では,最近の学術文献から,S&P関連誤解のデータセットを6つのトピックにまとめる。
次に2つの人気のあるllm(bardとchatgpt)をクエリし、これらの誤解に対する反応を評価するためのラベルガイドを作成します。
回答を包括的に評価するために、各誤解を複数回クエリし、パラフレーズを生成してクエリし、レスポンスのソースURLを要求する3つの戦略を適用する。
どちらのモデルも平均21.3%の非無視エラー率を示し、一般的なS&Pの誤解を誤って裏付けている。
同じまたはパラフレーズの誤解で繰り返しllmを問い合わせると、エラー率は32.6%に増加する。
また、モデルが部分的に誤解を支持したり、非決定的であり続ける可能性があることも明らかにします。
回答の情報源を調査したところ、llmは無効なurlの提供(bardでは21.2%、chatgptでは67.7%)や無関係な情報源(bardでは44.2%、chatgptでは18.3%)の影響を受けやすいことがわかった。
関連論文リスト
- Understanding Knowledge Drift in LLMs through Misinformation [11.605377799885238]
大規模言語モデル(LLM)は多くのアプリケーションに革命をもたらしました。
我々は,QnAシナリオで誤情報に遭遇した場合に,現状のLCMの事実的不正確性に対する感受性を解析する。
実験の結果,LLMの不確実性が56.6%まで増加することが判明した。
論文 参考訳(メタデータ) (2024-09-11T08:11:16Z) - WikiContradict: A Benchmark for Evaluating LLMs on Real-World Knowledge Conflicts from Wikipedia [59.96425443250666]
Retrieval-augmented Generation (RAG) は,大規模言語モデル(LLM)の限界を緩和する,有望なソリューションとして登場した。
本研究では,ウィキペディアからの矛盾文に基づく質問に対するLLM生成回答の総合評価を行う。
我々は、単一のパスを持つRAGと2つの矛盾するパスを持つRAGを含む、様々なQAシナリオ下で、クローズドおよびオープンソース両方のLSMをベンチマークする。
論文 参考訳(メタデータ) (2024-06-19T20:13:42Z) - Perception of Knowledge Boundary for Large Language Models through Semi-open-ended Question Answering [67.94354589215637]
大きな言語モデル(LLM)は知識探索に広く用いられているが、幻覚に悩まされている。
本稿では,LLMの知識境界(KB)を半オープンな質問(SoeQ)で知覚する。
GPT-4 は SoeQ では性能が悪く,KB に気づいていないことが多い。
我々の補助モデルであるLLaMA-2-13Bは、より曖昧な答えを見つけるのに有効である。
論文 参考訳(メタデータ) (2024-05-23T10:00:14Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - Correcting misinformation on social media with a large language model [14.69780455372507]
現実世界の誤報は、しばしばマルチモーダルであり、因果関係を混同するような様々な戦術で誤解を招くことがある。
このような誤報は、特にソーシャルメディアにおいて、ひどく過小評価され、対処が困難であり、様々な社会的ドメインに害を与えている。
本稿では,最新の情報へのアクセスと信頼性を付加したLCMであるMUSEを提案する。
論文 参考訳(メタデータ) (2024-03-17T10:59:09Z) - Can Large Language Models Detect Rumors on Social Media? [21.678652268122296]
ソーシャルメディア上でのうわさ検出にLarge Language Models (LLMs) を用いることを検討した。
そこで我々は,LLMにニュースやコメントの重要な手がかりを推論するように指導する手法として,LeRuD(LeRuD)アプローチを提案する。
LeRuDは最先端の噂検出モデルを3.2%から7.7%上回っている。
論文 参考訳(メタデータ) (2024-02-06T11:33:57Z) - The Earth is Flat? Unveiling Factual Errors in Large Language Models [89.94270049334479]
ChatGPTのような大規模言語モデル(LLM)は、事前学習や微調整の知識が豊富にあるため、様々な応用がある。
それにもかかわらず、医療、ジャーナリズム、教育といった重要な分野に懸念を抱き、事実と常識の誤りを引き起こす傾向にある。
LLMにおける事実不正確な事実を明らかにすることを目的とした,新しい自動テストフレームワークであるFactCheckerを紹介する。
論文 参考訳(メタデータ) (2024-01-01T14:02:27Z) - Large Language Models Help Humans Verify Truthfulness -- Except When They Are Convincingly Wrong [35.64962031447787]
大規模言語モデル(LLM)は、Web上の情報へのアクセスにますます使われています。
80人のクラウドワーカーによる実験では,事実チェックを容易にするために,言語モデルと検索エンジン(情報検索システム)を比較した。
LLMの説明を読むユーザーは、類似の精度を保ちながら、検索エンジンを使用するものよりもはるかに効率的である。
論文 参考訳(メタデータ) (2023-10-19T08:09:58Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Statistical Knowledge Assessment for Large Language Models [79.07989821512128]
ファクトイドの問題に関する様々なプロンプトを考慮すれば、大きな言語モデル(LLM)は事実的に正しい答えを確実に生成できるだろうか?
LLMの事実知識を評価する統計的手法であるKaRRを提案する。
この結果から,同じバックボーン構造を持つLLMの知識はスケーリング法則に則っており,命令追従データに基づくチューニングは,実際に正しいテキストを確実に生成するモデルの能力を損なう場合があることがわかった。
論文 参考訳(メタデータ) (2023-05-17T18:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。