論文の概要: Calibrated Trust in Dealing with LLM Hallucinations: A Qualitative Study
- arxiv url: http://arxiv.org/abs/2512.09088v1
- Date: Tue, 09 Dec 2025 19:59:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.306898
- Title: Calibrated Trust in Dealing with LLM Hallucinations: A Qualitative Study
- Title(参考訳): LLM幻覚治療における校正信頼 : 質的研究
- Authors: Adrian Ryser, Florian Allwein, Tim Schlippe,
- Abstract要約: 幻覚は大規模言語モデル (LLM) によって出力され、実際には正しくないが、妥当であるように見える。
以上の結果から,幻覚は不信を伴わず,文脈に敏感な信頼度校正につながることが示唆された。
- 参考スコア(独自算出の注目度): 0.038233569758620044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucinations are outputs by Large Language Models (LLMs) that are factually incorrect yet appear plausible [1]. This paper investigates how such hallucinations influence users' trust in LLMs and users' interaction with LLMs. To explore this in everyday use, we conducted a qualitative study with 192 participants. Our findings show that hallucinations do not result in blanket mistrust but instead lead to context-sensitive trust calibration. Building on the calibrated trust model by Lee & See [2] and Afroogh et al.'s trust-related factors [3], we confirm expectancy [3], [4], prior experience [3], [4], [5], and user expertise & domain knowledge [3], [4] as userrelated (human) trust factors, and identify intuition as an additional factor relevant for hallucination detection. Additionally, we found that trust dynamics are further influenced by contextual factors, particularly perceived risk [3] and decision stakes [6]. Consequently, we validate the recursive trust calibration process proposed by Blöbaum [7] and extend it by including intuition as a user-related trust factor. Based on these insights, we propose practical recommendations for responsible and reflective LLM use.
- Abstract(参考訳): 幻覚は大規模言語モデル (LLMs) によって出力され、実際には正しくないが、妥当な [1] である。
本稿では,このような幻覚がLLMに対するユーザの信頼とLLMとのインタラクションに与える影響について検討する。
日常的にこれを調査するため,192名の被験者を対象に質的研究を行った。
以上の結果から,幻覚は不信の原因ではなく,文脈に敏感な信頼度校正につながることが示唆された。
Lee & See [2] and Afroogh et al's Trust-related factors [3], we confirmed expectancy [3], [4], prior experience [3], [4], [5], and user expertise & domain knowledge [3], [4] as userrelated ( Human) Trust factors, and identified intuition as additional factor for hallucination detection。
さらに、信頼のダイナミクスは文脈的要因、特にリスク[3]と意思決定の持分 [6]の影響を受けています。
その結果, Blöbaum [7] が提案した再帰的信頼校正プロセスを検証するとともに, ユーザ関連信頼要因として直観を含めることでそれを拡張した。
これらの知見に基づき、本研究では、責任と反射性LLM使用に対する実用的な勧告を提案する。
関連論文リスト
- Building and Measuring Trust between Large Language Models [10.539443038617089]
信頼を構築するための異なる戦略がどのように比較されるか、信頼がどのように暗黙的に測定されるか、そしてそれが信頼の明示的な尺度にどのように関係するかについて研究する。
我々は3つの方法で信頼を構築する。ラプポートを動的に構築すること、信頼を証明した事前記述スクリプトから始めること、LLMのシステムプロンプトに適応することである。
意外なことに、明示的な信頼の尺度は、暗黙的な信頼の尺度とほとんどあるいは非常に負の相関がないことがわかりました。
論文 参考訳(メタデータ) (2025-08-20T11:38:38Z) - Ties of Trust: a bowtie model to uncover trustor-trustee relationships in LLMs [1.1149261035759372]
大規模言語モデル(LLM)における信頼の概念化と定式化のためのボウイモデルを提案する。
コアコンポーネントは、信頼者と信頼者、そしてそれらの複雑な関係を結び付けることによって、信頼を包括的に探求する。
我々はこれらの関係を、提案されたボウティーモデルと、その社会技術エコシステムの範囲内で明らかにする。
論文 参考訳(メタデータ) (2025-06-11T11:42:52Z) - Measuring and identifying factors of individuals' trust in Large Language Models [0.0]
LLM(Large Language Models)は、人間のように見える会話の交換を行う。
LLMに対する個人の信頼度を測定する新しいフレームワークとして、TILLMI(Trust-In-LLMs Index)を紹介した。
論文 参考訳(メタデータ) (2025-02-28T13:16:34Z) - Think Twice Before Trusting: Self-Detection for Large Language Models through Comprehensive Answer Reflection [90.71323430635593]
本稿では, LLM生成解を超える包括的解答空間を考察した, 新たな自己検出パラダイムを提案する。
このパラダイムに基づいて、2段階のフレームワークを導入し、まずまずLLMに各候補の回答を反映し、正当化するように指示する。
このフレームワークは、優れた自己検出のための既存のアプローチとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-15T02:38:26Z) - TrustScore: Reference-Free Evaluation of LLM Response Trustworthiness [58.721012475577716]
大規模言語モデル(LLM)は、様々な領域にまたがる印象的な能力を示しており、その実践的応用が急増している。
本稿では,行動整合性の概念に基づくフレームワークであるTrustScoreを紹介する。
論文 参考訳(メタデータ) (2024-02-19T21:12:14Z) - Reconfidencing LLMs from the Grouping Loss Perspective [56.801251926946485]
大規模言語モデル(LLM)は、自信のある音調で幻覚的な答えを生じさせる可能性がある。
近年の研究では、不確実性制御はキャリブレーションを超えて行わなければならないことが示されている。
そこで我々は,MistralとLLaMAの回答に対する信頼度を評価するために,知識ベースから導出した新しい評価データセットを構築した。
論文 参考訳(メタデータ) (2024-02-07T15:40:22Z) - What Large Language Models Know and What People Think They Know [13.939511057660013]
大規模言語モデル(LLM)は意思決定プロセスに統合されつつある。
人間の信頼を得るためには、LSMは正確に評価し、正しい予測の可能性を伝達できるように、適切に校正されなければならない。
ここでは, LLM生成回答における人間の信頼度とモデルの実際の信頼度との差を示すキャリブレーションギャップと, 人間とモデルが正解と誤解をいかによく区別できるかを反映した識別ギャップについて検討する。
論文 参考訳(メタデータ) (2024-01-24T22:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。