論文の概要: Tell me the truth: A system to measure the trustworthiness of Large
Language Models
- arxiv url: http://arxiv.org/abs/2403.04964v1
- Date: Fri, 8 Mar 2024 00:27:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 21:25:58.798279
- Title: Tell me the truth: A system to measure the trustworthiness of Large
Language Models
- Title(参考訳): 実を言うと:大規模言語モデルの信頼性を測定するシステム
- Authors: Carlo Lipizzi
- Abstract要約: 大型言語モデル (LLM) は2023年11月にChatGPTが導入されて以来、ほとんどのニュースでトップの座を占めてきた。
企業が採用に抵抗している主な理由の1つは、これらのシステムの信頼性に対する信頼性の制限である。
ドメインの知識グラフとして表現された前提真理に基づいて信頼度を測定するための体系的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLM) have taken the front seat in most of the news
since November 2023, when ChatGPT was introduced. After more than one year, one
of the major reasons companies are resistant to adopting them is the limited
confidence they have in the trustworthiness of those systems. In a study by
(Baymard, 2023), ChatGPT-4 showed an 80.1% false-positive error rate in
identifying usability issues on websites. A Jan. '24 study by JAMA Pediatrics
found that ChatGPT has an accuracy rate of 17% percent when diagnosing
pediatric medical cases (Barile et al., 2024). But then, what is "trust"? Trust
is a relative, subject condition that can change based on culture, domain,
individuals. And then, given a domain, how can the trustworthiness of a system
be measured? In this paper, I present a systematic approach to measure
trustworthiness based on a predefined ground truth, represented as a knowledge
graph of the domain. The approach is a process with humans in the loop to
validate the representation of the domain and to fine-tune the system.
Measuring the trustworthiness would be essential for all the entities
operating in critical environments, such as healthcare, defense, finance, but
it would be very relevant for all the users of LLMs.
- Abstract(参考訳): 大型言語モデル (LLM) は2023年11月にChatGPTが導入されて以来、ほとんどのニュースでトップに立った。
1年以上経った今、企業が採用に抵抗する主な理由の1つは、システムの信頼性に対する信頼度が限られていることだ。
(baymard, 2023) による研究で、chatgpt-4はウェブサイトのユーザビリティの問題を特定する際に80.1%の誤検出率を示した。
ヤン。
JAMA小児科の研究では、ChatGPTは小児科の患者(Barile et al., 2024)の診断の精度が17%であることが判明した。
では、"信頼"とは何か?
信頼は、文化、ドメイン、個人に基づいて変化できる相対的、主題的条件である。
そして、ドメインが与えられたら、システムの信頼性をどのように測定するか?
本稿では,ドメインの知識グラフとして表現された前提真理に基づいて信頼度を測定するための体系的なアプローチを提案する。
このアプローチは、ドメインの表現を検証し、システムを微調整するためのループに人間がいるプロセスである。
信頼度の測定は、医療、防衛、金融といった重要な環境で活動するすべてのエンティティにとって不可欠だが、LLMのすべてのユーザにとって非常に重要である。
関連論文リスト
- Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - ZTCloudGuard: Zero Trust Context-Aware Access Management Framework to Avoid Misuse Cases in the Era of Generative AI and Cloud-based Health Information Ecosystem [0.5530212768657544]
この記事では、クラウドエコシステムへのアクセスを管理するための、ゼロトラストベースのコンテキスト認識フレームワークを提案する。
このフレームワークには、信頼の連鎖を維持するための2つの主要なスコアスキーマがある。
この分析は、セマンティックスコアと構文スコアを生成するための、事前訓練された機械学習モデルに基づいている。
論文 参考訳(メタデータ) (2023-11-28T22:12:07Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - In ChatGPT We Trust? Measuring and Characterizing the Reliability of
ChatGPT [44.51625917839939]
ChatGPTは短期間で1億人以上のユーザーを獲得した。
汎用QAシナリオでChatGPTの信頼性を大規模に測定する。
ChatGPTの信頼性はドメインによって異なり、特に法律や科学の質問では性能が低かった。
論文 参考訳(メタデータ) (2023-04-18T13:20:45Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Exploiting prompt learning with pre-trained language models for
Alzheimer's Disease detection [70.86672569101536]
アルツハイマー病(AD)の早期診断は予防ケアの促進とさらなる進行の遅らせに不可欠である。
本稿では,AD分類誤差をトレーニング対象関数として一貫して用いたPLMの高速微調整法について検討する。
論文 参考訳(メタデータ) (2022-10-29T09:18:41Z) - TRUST-LAPSE: An Explainable and Actionable Mistrust Scoring Framework
for Model Monitoring [4.262769931159288]
連続モデル監視のための"ミストラスト"スコアリングフレームワークであるTRUST-LAPSEを提案する。
我々は,各入力サンプルのモデル予測の信頼性を,潜時空間埋め込みのシーケンスを用いて評価する。
AUROCs 84.1 (vision), 73.9 (audio), 77.1 (clinical EEGs)
論文 参考訳(メタデータ) (2022-07-22T18:32:38Z) - SOK: Seeing and Believing: Evaluating the Trustworthiness of Twitter
Users [4.609388510200741]
現在、どのニュースやユーザーが信頼できるか、どれがそうでないかを自動で判断する方法はない。
本研究では、Twitter上で5万人の政治家の行動を分析するモデルを作成しました。
政治Twitterのユーザを、ランダムな森林、多層パーセプトロン、サポートベクターマシンを使って、信頼あるいは信頼できないと分類した。
論文 参考訳(メタデータ) (2021-07-16T17:39:32Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。