論文の概要: Building and Measuring Trust between Large Language Models
- arxiv url: http://arxiv.org/abs/2508.15858v1
- Date: Wed, 20 Aug 2025 11:38:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.126638
- Title: Building and Measuring Trust between Large Language Models
- Title(参考訳): 大規模言語モデル間の信頼の構築と測定
- Authors: Maarten Buyl, Yousra Fettach, Guillaume Bied, Tijl De Bie,
- Abstract要約: 信頼を構築するための異なる戦略がどのように比較されるか、信頼がどのように暗黙的に測定されるか、そしてそれが信頼の明示的な尺度にどのように関係するかについて研究する。
我々は3つの方法で信頼を構築する。ラプポートを動的に構築すること、信頼を証明した事前記述スクリプトから始めること、LLMのシステムプロンプトに適応することである。
意外なことに、明示的な信頼の尺度は、暗黙的な信頼の尺度とほとんどあるいは非常に負の相関がないことがわかりました。
- 参考スコア(独自算出の注目度): 10.539443038617089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) increasingly interact with each other, most notably in multi-agent setups, we may expect (and hope) that `trust' relationships develop between them, mirroring trust relationships between human colleagues, friends, or partners. Yet, though prior work has shown LLMs to be capable of identifying emotional connections and recognizing reciprocity in trust games, little remains known about (i) how different strategies to build trust compare, (ii) how such trust can be measured implicitly, and (iii) how this relates to explicit measures of trust. We study these questions by relating implicit measures of trust, i.e. susceptibility to persuasion and propensity to collaborate financially, with explicit measures of trust, i.e. a dyadic trust questionnaire well-established in psychology. We build trust in three ways: by building rapport dynamically, by starting from a prewritten script that evidences trust, and by adapting the LLMs' system prompt. Surprisingly, we find that the measures of explicit trust are either little or highly negatively correlated with implicit trust measures. These findings suggest that measuring trust between LLMs by asking their opinion may be deceiving. Instead, context-specific and implicit measures may be more informative in understanding how LLMs trust each other.
- Abstract(参考訳): 大規模言語モデル(LLM)がますます相互に相互作用するようになり、特にマルチエージェントのセットアップでは、'信頼'関係がそれらの間で発展し、人間の同僚、友人、パートナー間の信頼関係が反映されることを期待しています(そして希望します)。
しかし、以前の研究はLLMが感情的なつながりを識別し、信頼ゲームにおける相互性を認識できることを示したが、ほとんど分かっていない。
i)信頼を構築するための異なる戦略がいかに比較されるか
(二)そのような信頼がどのように暗黙的に測定されうるか、そして
(三)信頼の明示的な措置とどのように関係しているか。
本研究では,信頼度を暗黙的に評価する尺度,すなわち説得に対する感受性と,金銭的に協力する寛容性を,信頼度を明示的に測定する尺度,つまり心理学において確立されたダイアディック信頼度アンケートに関連付けることにより,これらの課題を考察する。
我々は3つの方法で信頼を構築する。ラプポートを動的に構築すること、信頼を証明した事前記述スクリプトから始めること、LLMのシステムプロンプトに適応することである。
意外なことに、明示的な信頼の尺度は、暗黙的な信頼の尺度とほとんどあるいは非常に負の相関がないことがわかりました。
これらのことから,LSM間の信頼度を評価できる可能性が示唆された。
代わりに、文脈固有の暗黙の測度は、LLMが相互に信頼する方法を理解する上でより有益である。
関連論文リスト
- Ties of Trust: a bowtie model to uncover trustor-trustee relationships in LLMs [1.1149261035759372]
大規模言語モデル(LLM)における信頼の概念化と定式化のためのボウイモデルを提案する。
コアコンポーネントは、信頼者と信頼者、そしてそれらの複雑な関係を結び付けることによって、信頼を包括的に探求する。
我々はこれらの関係を、提案されたボウティーモデルと、その社会技術エコシステムの範囲内で明らかにする。
論文 参考訳(メタデータ) (2025-06-11T11:42:52Z) - Attention Knows Whom to Trust: Attention-based Trust Management for LLM Multi-Agent Systems [52.57826440085856]
LLM-MAS(Large Language Model-based Multi-Agent Systems)は、複雑なタスクを解く上で強力な能力を示すが、エージェントが信頼性の低いメッセージを受け取ると弱いままである。
LLMエージェントは、信頼性を評価することなく、すべての受信メッセージを平等に扱う。
本稿では,メッセージの信頼度を評価するための軽量な注意ベース手法であるAttention Trust Score (A-Trust)を提案する。
論文 参考訳(メタデータ) (2025-06-03T07:32:57Z) - On the Need to Rethink Trust in AI Assistants for Software Development: A Critical Review [16.774993642353724]
信頼は人間の意思決定とコラボレーションの基本的な概念である。
ソフトウェア工学の記事は、しばしば非公式に信頼という用語を使う。
関連する規律は、一般的に彼らの方法論と結果を確立された信頼モデルに組み込む。
論文 参考訳(メタデータ) (2025-04-16T19:52:21Z) - Measuring and identifying factors of individuals' trust in Large Language Models [0.0]
LLM(Large Language Models)は、人間のように見える会話の交換を行う。
LLMに対する個人の信頼度を測定する新しいフレームワークとして、TILLMI(Trust-In-LLMs Index)を紹介した。
論文 参考訳(メタデータ) (2025-02-28T13:16:34Z) - Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - TrustLLM: Trustworthiness in Large Language Models [446.5640421311468]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。