論文の概要: Tell me the truth: A system to measure the trustworthiness of Large
Language Models
- arxiv url: http://arxiv.org/abs/2403.04964v2
- Date: Mon, 11 Mar 2024 18:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 13:20:02.954837
- Title: Tell me the truth: A system to measure the trustworthiness of Large
Language Models
- Title(参考訳): 実を言うと:大規模言語モデルの信頼性を測定するシステム
- Authors: Carlo Lipizzi
- Abstract要約: 大型言語モデル (LLM) は2022年11月にChatGPTが導入されて以来、ほとんどのニュースでトップに立った。
企業が採用に抵抗している主な理由の1つは、これらのシステムの信頼性に対する信頼性の制限である。
ドメインの知識グラフとして表現された前提真理に基づいて信頼度を測定するための体系的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLM) have taken the front seat in most of the news
since November 2022, when ChatGPT was introduced. After more than one year, one
of the major reasons companies are resistant to adopting them is the limited
confidence they have in the trustworthiness of those systems. In a study by
(Baymard, 2023), ChatGPT-4 showed an 80.1% false-positive error rate in
identifying usability issues on websites. A Jan. '24 study by JAMA Pediatrics
found that ChatGPT has an accuracy rate of 17% percent when diagnosing
pediatric medical cases (Barile et al., 2024). But then, what is "trust"? Trust
is a relative, subject condition that can change based on culture, domain,
individuals. And then, given a domain, how can the trustworthiness of a system
be measured? In this paper, I present a systematic approach to measure
trustworthiness based on a predefined ground truth, represented as a knowledge
graph of the domain. The approach is a process with humans in the loop to
validate the representation of the domain and to fine-tune the system.
Measuring the trustworthiness would be essential for all the entities
operating in critical environments, such as healthcare, defense, finance, but
it would be very relevant for all the users of LLMs.
- Abstract(参考訳): 大型言語モデル (LLM) は2022年11月にChatGPTが導入されて以来、ほとんどのニュースでトップに立った。
1年以上経った今、企業が採用に抵抗する主な理由の1つは、システムの信頼性に対する信頼度が限られていることだ。
(baymard, 2023) による研究で、chatgpt-4はウェブサイトのユーザビリティの問題を特定する際に80.1%の誤検出率を示した。
ヤン。
JAMA小児科の研究では、ChatGPTは小児科の患者(Barile et al., 2024)の診断の精度が17%であることが判明した。
では、"信頼"とは何か?
信頼は、文化、ドメイン、個人に基づいて変化できる相対的、主題的条件である。
そして、ドメインが与えられたら、システムの信頼性をどのように測定するか?
本稿では,ドメインの知識グラフとして表現された前提真理に基づいて信頼度を測定するための体系的なアプローチを提案する。
このアプローチは、ドメインの表現を検証し、システムを微調整するためのループに人間がいるプロセスである。
信頼度の測定は、医療、防衛、金融といった重要な環境で活動するすべてのエンティティにとって不可欠だが、LLMのすべてのユーザにとって非常に重要である。
関連論文リスト
- Automated Trustworthiness Oracle Generation for Machine Learning Text Classifiers [9.349442247982557]
モデルの信頼性や精度といった従来のメトリクスは、機械学習モデルに対する人間の信頼を構築するには不十分です。
予測帰属語が予測クラスに関連があるかどうかを自動的にチェックするTOKIを提案する。
また,TOKIが特定した信頼性問題を対象とした新たな敵攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T03:26:37Z) - CARES: A Comprehensive Benchmark of Trustworthiness in Medical Vision Language Models [92.04812189642418]
我々はCARESを紹介し,医療領域全体での医療LVLMの信頼性を評価することを目的とする。
我々は,Med-LVLMの信頼性を,信頼性,公正性,安全性,プライバシ,堅牢性,5次元にわたって評価する。
論文 参考訳(メタデータ) (2024-06-10T04:07:09Z) - Automated Trustworthiness Testing for Machine Learning Classifiers [3.3423762257383207]
本稿では,テキスト分類器が信頼に値するかどうかを判断する信頼度オラクルを自動生成するTOWERを提案する。
我々の仮説は、その説明中の単語が予測されたクラスと意味的に関連している場合、予測は信頼に値するというものである。
その結果,TOWERはノイズの増加に伴って信頼性の低下を検出することができるが,人為的ラベル付きデータセットに対して評価しても有効ではないことがわかった。
論文 参考訳(メタデータ) (2024-06-07T20:25:05Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - ZTCloudGuard: Zero Trust Context-Aware Access Management Framework to Avoid Misuse Cases in the Era of Generative AI and Cloud-based Health Information Ecosystem [0.5530212768657544]
この記事では、クラウドエコシステムへのアクセスを管理するための、ゼロトラストベースのコンテキスト認識フレームワークを提案する。
このフレームワークには、信頼の連鎖を維持するための2つの主要なスコアスキーマがある。
この分析は、セマンティックスコアと構文スコアを生成するための、事前訓練された機械学習モデルに基づいている。
論文 参考訳(メタデータ) (2023-11-28T22:12:07Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Exploiting prompt learning with pre-trained language models for
Alzheimer's Disease detection [70.86672569101536]
アルツハイマー病(AD)の早期診断は予防ケアの促進とさらなる進行の遅らせに不可欠である。
本稿では,AD分類誤差をトレーニング対象関数として一貫して用いたPLMの高速微調整法について検討する。
論文 参考訳(メタデータ) (2022-10-29T09:18:41Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。