論文の概要: Ties of Trust: a bowtie model to uncover trustor-trustee relationships in LLMs
- arxiv url: http://arxiv.org/abs/2506.09632v1
- Date: Wed, 11 Jun 2025 11:42:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.897201
- Title: Ties of Trust: a bowtie model to uncover trustor-trustee relationships in LLMs
- Title(参考訳): 信頼のTies of Trust--LLMにおける信頼と信頼の関係を明らかにするボウティーモデル
- Authors: Eva Paraschou, Maria Michali, Sofia Yfantidou, Stelios Karamanidis, Stefanos Rafail Kalogeros, Athena Vakali,
- Abstract要約: 大規模言語モデル(LLM)における信頼の概念化と定式化のためのボウイモデルを提案する。
コアコンポーネントは、信頼者と信頼者、そしてそれらの複雑な関係を結び付けることによって、信頼を包括的に探求する。
我々はこれらの関係を、提案されたボウティーモデルと、その社会技術エコシステムの範囲内で明らかにする。
- 参考スコア(独自算出の注目度): 1.1149261035759372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid and unprecedented dominance of Artificial Intelligence (AI), particularly through Large Language Models (LLMs), has raised critical trust challenges in high-stakes domains like politics. Biased LLMs' decisions and misinformation undermine democratic processes, and existing trust models fail to address the intricacies of trust in LLMs. Currently, oversimplified, one-directional approaches have largely overlooked the many relationships between trustor (user) contextual factors (e.g. ideology, perceptions) and trustee (LLMs) systemic elements (e.g. scientists, tool's features). In this work, we introduce a bowtie model for holistically conceptualizing and formulating trust in LLMs, with a core component comprehensively exploring trust by tying its two sides, namely the trustor and the trustee, as well as their intricate relationships. We uncover these relationships within the proposed bowtie model and beyond to its sociotechnical ecosystem, through a mixed-methods explanatory study, that exploits a political discourse analysis tool (integrating ChatGPT), by exploring and responding to the next critical questions: 1) How do trustor's contextual factors influence trust-related actions? 2) How do these factors influence and interact with trustee systemic elements? 3) How does trust itself vary across trustee systemic elements? Our bowtie-based explanatory analysis reveals that past experiences and familiarity significantly shape trustor's trust-related actions; not all trustor contextual factors equally influence trustee systemic elements; and trustee's human-in-the-loop features enhance trust, while lack of transparency decreases it. Finally, this solid evidence is exploited to deliver recommendations, insights and pathways towards building robust trusting ecosystems in LLM-based solutions.
- Abstract(参考訳): 人工知能(AI)の急速な支配は、特にLarge Language Models(LLMs)を通じて、政治のような高度な領域において重要な信頼上の課題を提起している。
LLMの判断と誤報は民主的プロセスを損なうものであり、既存の信頼モデルはLLMの信頼性の複雑さに対処することができない。
現在、過度に単純化された一方向アプローチは、信頼者(ユーザ)の文脈要因(例えば、イデオロギー、知覚)と信頼者(LLM)の体系的要素(例えば、科学者、ツールの特徴)の間の多くの関係を概ね見落としている。
本研究では,LLMにおける信頼の全体的概念化と定式化のためのボウティーモデルを提案する。中核となるコンポーネントは,信頼者と信頼者,そして複雑な関係を結び付けることによって,信頼を包括的に探求するものである。
我々は、これらの関係を、提案されたボウティーモデルの中で発見し、社会技術的エコシステムを超えて、政治的談話分析ツール(ChatGPTを統合する)を利用して、次の重要な質問を探索し、回答することで、混成メタドスの説明研究を通して明らかにする。
1)トラストの文脈的要因は信頼関連行動にどのように影響するか?
2)これらの要因は、受託者の体系的要素にどのように影響し、相互作用するか。
3)トラスト自体がトラストの体系的要素によってどのように異なるのか?
ボウティーに基づく説明分析では,過去の経験と親しみがトラストの信頼関連行動を著しく形作っていること,トラストの文脈的要因がトラストのシステム的要素に等しく影響を及ぼしているわけではないこと,トラストの人間-イン・ザ・ループ的特徴が信頼を高めていること,透明性の欠如がそれを減らすこと,などが示されている。
最後に、この確固たる証拠を利用して、LLMベースのソリューションで堅牢な信頼性のあるエコシステムを構築するための推奨、洞察、経路を提供する。
関連論文リスト
- Attention Knows Whom to Trust: Attention-based Trust Management for LLM Multi-Agent Systems [52.57826440085856]
LLM-MAS(Large Language Model-based Multi-Agent Systems)は、複雑なタスクを解く上で強力な能力を示すが、エージェントが信頼性の低いメッセージを受け取ると弱いままである。
LLMエージェントは、信頼性を評価することなく、すべての受信メッセージを平等に扱う。
本稿では,メッセージの信頼度を評価するための軽量な注意ベース手法であるAttention Trust Score (A-Trust)を提案する。
論文 参考訳(メタデータ) (2025-06-03T07:32:57Z) - Rethinking Trust in AI Assistants for Software Development: A Critical Review [16.774993642353724]
信頼は人間の意思決定とコラボレーションの基本的な概念である。
ソフトウェアエンジニアリングの記事は、しばしば非公式に「信頼」という言葉を使う。
共通の定義がなければ、信頼に関する真の二次研究は不可能である。
論文 参考訳(メタデータ) (2025-04-16T19:52:21Z) - Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
我々はconfidence-Quality-ORDer保存アライメントアプローチ(CONQORD)を提案する。
品質報酬と秩序保存アライメント報酬機能を統合する。
実験により,CONQORDは信頼性と応答精度のアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - TrustScore: Reference-Free Evaluation of LLM Response Trustworthiness [58.721012475577716]
大規模言語モデル(LLM)は、様々な領域にまたがる印象的な能力を示しており、その実践的応用が急増している。
本稿では,行動整合性の概念に基づくフレームワークであるTrustScoreを紹介する。
論文 参考訳(メタデータ) (2024-02-19T21:12:14Z) - What Large Language Models Know and What People Think They Know [13.939511057660013]
大規模言語モデル(LLM)は意思決定プロセスに統合されつつある。
人間の信頼を得るためには、LSMは正確に評価し、正しい予測の可能性を伝達できるように、適切に校正されなければならない。
ここでは, LLM生成回答における人間の信頼度とモデルの実際の信頼度との差を示すキャリブレーションギャップと, 人間とモデルが正解と誤解をいかによく区別できるかを反映した識別ギャップについて検討する。
論文 参考訳(メタデータ) (2024-01-24T22:21:04Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。