論文の概要: A closer look at how large language models trust humans: patterns and biases
- arxiv url: http://arxiv.org/abs/2504.15801v1
- Date: Tue, 22 Apr 2025 11:31:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:44:08.672385
- Title: A closer look at how large language models trust humans: patterns and biases
- Title(参考訳): 大規模言語モデルがいかに人間を信頼しているか - パターンとバイアス
- Authors: Valeria Lerman, Yaniv Dover,
- Abstract要約: 大規模言語モデル(LLM)とLLMベースのエージェントは、意思決定の文脈で人間と対話する傾向にある。
LLMは、意思決定を支援し、影響を及ぼすために、信頼に関連するコンテキストに対して、ある種の暗黙の効果的な信頼に依存しています。
我々は, LLMの信頼が, 人類の能力, 善意, 完全性の3つの主要な信頼性の側面に依存しているかどうかを考察する。
ほとんどのケースにおいて、LDMの信頼は信頼性によって強く予測され、場合によっては年齢、宗教、性別にも偏っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) and LLM-based agents increasingly interact with humans in decision-making contexts, understanding the trust dynamics between humans and AI agents becomes a central concern. While considerable literature studies how humans trust AI agents, it is much less understood how LLM-based agents develop effective trust in humans. LLM-based agents likely rely on some sort of implicit effective trust in trust-related contexts (e.g., evaluating individual loan applications) to assist and affect decision making. Using established behavioral theories, we develop an approach that studies whether LLMs trust depends on the three major trustworthiness dimensions: competence, benevolence and integrity of the human subject. We also study how demographic variables affect effective trust. Across 43,200 simulated experiments, for five popular language models, across five different scenarios we find that LLM trust development shows an overall similarity to human trust development. We find that in most, but not all cases, LLM trust is strongly predicted by trustworthiness, and in some cases also biased by age, religion and gender, especially in financial scenarios. This is particularly true for scenarios common in the literature and for newer models. While the overall patterns align with human-like mechanisms of effective trust formation, different models exhibit variation in how they estimate trust; in some cases, trustworthiness and demographic factors are weak predictors of effective trust. These findings call for a better understanding of AI-to-human trust dynamics and monitoring of biases and trust development patterns to prevent unintended and potentially harmful outcomes in trust-sensitive applications of AI.
- Abstract(参考訳): 大きな言語モデル(LLM)とLLMベースのエージェントが意思決定の文脈で人間と対話するようになり、人間とAIエージェントの間の信頼のダイナミクスを理解することが中心的な関心事となる。
人間がどのようにAIエージェントを信頼するかを研究しているが、LLMベースのエージェントがどのように人間を効果的に信頼するかは理解されていない。
LLMベースのエージェントは、意思決定を支援し、影響を及ぼすために、信頼に関連するコンテキスト(例えば、個人ローンアプリケーションの評価)に対して、ある種の暗黙的な効果的な信頼に依存している可能性が高い。
確立された行動理論を用いて, LLMの信頼度は, 人間の能力, 善意, 完全性の3つの主要な信頼度次元に依存するかを研究するアプローチを開発する。
また、人口統計学的変数が効果的な信頼にどのように影響するかについても検討する。
43,200人以上のシミュレーション実験を5つの一般的な言語モデルで行った結果,LLM信頼開発が人間信頼開発と全体的な類似性を示していることが判明した。
ほとんどのケースにおいて、LDMの信頼は信頼性によって強く予測され、場合によっては年齢、宗教、性別にも偏っている。
これは特に文献に共通するシナリオや新しいモデルに当てはまる。
全体的なパターンは、効果的な信頼形成の人間的なメカニズムと一致しているが、異なるモデルでは、信頼を見積もる方法にバリエーションがある。
これらの発見は、AIの信頼に敏感なアプリケーションにおける意図しない、潜在的に有害な結果を防止するために、AIから人間への信頼のダイナミクスをよりよく理解し、バイアスや信頼開発パターンを監視することを求めている。
関連論文リスト
- Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Measuring and identifying factors of individuals' trust in Large Language Models [0.0]
LLM(Large Language Models)は、人間のように見える会話の交換を行う。
LLMに対する個人の信頼度を測定する新しいフレームワークとして、TILLMI(Trust-In-LLMs Index)を紹介した。
論文 参考訳(メタデータ) (2025-02-28T13:16:34Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - MultiTrust: A Comprehensive Benchmark Towards Trustworthy Multimodal Large Language Models [51.19622266249408]
MultiTrustはMLLMの信頼性に関する最初の総合的で統一されたベンチマークである。
我々のベンチマークでは、マルチモーダルリスクとクロスモーダルインパクトの両方に対処する厳格な評価戦略を採用している。
21の近代MLLMによる大規模な実験は、これまで調査されなかった信頼性の問題とリスクを明らかにしている。
論文 参考訳(メタデータ) (2024-06-11T08:38:13Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - What Large Language Models Know and What People Think They Know [13.939511057660013]
大規模言語モデル(LLM)は意思決定プロセスに統合されつつある。
人間の信頼を得るためには、LSMは正確に評価し、正しい予測の可能性を伝達できるように、適切に校正されなければならない。
ここでは, LLM生成回答における人間の信頼度とモデルの実際の信頼度との差を示すキャリブレーションギャップと, 人間とモデルが正解と誤解をいかによく区別できるかを反映した識別ギャップについて検討する。
論文 参考訳(メタデータ) (2024-01-24T22:21:04Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods [12.641141743223377]
AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
どんな信頼モデルが使われているのか、どんなシステムに使われているのかは、ほとんど分かっていない。
AIの信頼を測定するための標準的なアプローチはまだ知られていない。
論文 参考訳(メタデータ) (2022-04-30T07:34:19Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。