論文の概要: An Empirical Exploration of Trust Dynamics in LLM Supply Chains
- arxiv url: http://arxiv.org/abs/2405.16310v1
- Date: Sat, 25 May 2024 17:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 21:57:23.867401
- Title: An Empirical Exploration of Trust Dynamics in LLM Supply Chains
- Title(参考訳): LLMサプライチェーンにおけるトラストダイナミクスの実証実験
- Authors: Agathe Balayn, Mireia Yurrita, Fanny Rancourt, Fabio Casati, Ujwal Gadiraju,
- Abstract要約: 我々は、AIシステムが生み出す複雑で動的なサプライチェーンを考慮し、AIへの信頼に対処する研究の範囲を広げることを主張する。
私たちの研究は、新たなタイプの信頼者、信頼者、信頼関係に影響を与える新しい要因を明らかにします。
- 参考スコア(独自算出の注目度): 11.057310859302248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the widespread proliferation of AI systems, trust in AI is an important and timely topic to navigate. Researchers so far have largely employed a myopic view of this relationship. In particular, a limited number of relevant trustors (e.g., end-users) and trustees (i.e., AI systems) have been considered, and empirical explorations have remained in laboratory settings, potentially overlooking factors that impact human-AI relationships in the real world. In this paper, we argue for broadening the scope of studies addressing `trust in AI' by accounting for the complex and dynamic supply chains that AI systems result from. AI supply chains entail various technical artifacts that diverse individuals, organizations, and stakeholders interact with, in a variety of ways. We present insights from an in-situ, empirical study of LLM supply chains. Our work reveals additional types of trustors and trustees and new factors impacting their trust relationships. These relationships were found to be central to the development and adoption of LLMs, but they can also be the terrain for uncalibrated trust and reliance on untrustworthy LLMs. Based on these findings, we discuss the implications for research on `trust in AI'. We highlight new research opportunities and challenges concerning the appropriate study of inter-actor relationships across the supply chain and the development of calibrated trust and meaningful reliance behaviors. We also question the meaning of building trust in the LLM supply chain.
- Abstract(参考訳): AIシステムの普及に伴い、AIへの信頼は、ナビゲートするための重要かつタイムリーなトピックである。
これまでの研究者は、この関係の神秘的な見解を多く採用してきた。
特に、限られた数の関連する委託者(エンドユーザー、AIシステムなど)と委託者(AIシステム)が検討され、実験的な調査は実験室で行われ、現実世界における人間とAIの関係に影響を及ぼす要因を見落としている可能性がある。
本稿では、AIシステムが生み出す複雑で動的なサプライチェーンを考慮し、「AIにおける信頼」に対処する研究の範囲を広げることについて議論する。
AIサプライチェーンは、さまざまな個人、組織、利害関係者がさまざまな方法で相互作用するさまざまな技術的アーティファクトを包含する。
LLMサプライチェーンのin-situ, empirical studyから得られた知見を報告する。
私たちの研究は、新たなタイプの信頼者、信頼者、信頼関係に影響を与える新しい要因を明らかにします。
これらの関係はLLMの開発と採用の中心であることがわかったが、信頼できないLLMへの信頼と信頼の欠如の地でもある。
これらの知見に基づき,「AIにおける信頼」研究の意義について論じる。
我々は,サプライチェーン全体にわたるアクター間関係の適切な研究と,キャリブレーションされた信頼と有意義な依存行動の開発に関する新たな研究機会と課題を強調した。
また,LLMサプライチェーンにおける信頼構築の意味についても疑問を呈する。
関連論文リスト
- Can We Trust AI Agents? An Experimental Study Towards Trustworthy LLM-Based Multi-Agent Systems for AI Ethics [10.084913433923566]
本研究では,信頼度向上技術が倫理的AI出力生成に与える影響について検討する。
我々はLLM-BMASのプロトタイプを設計し、エージェントは現実世界の倫理的AI問題に関する構造化された議論を行う。
議論では、バイアス検出、透明性、説明責任、ユーザの同意、コンプライアンス、公正性評価、EU AI Actコンプライアンスといった用語が明らかにされている。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - AI Safety in Generative AI Large Language Models: A Survey [14.737084887928408]
生成的AI能力を示す大規模言語モデル(LLM)は、採用とイノベーションの加速に直面している。
生成AI(GAI)は、これらのモデルに関連するリスクと安全性に関する懸念を必然的に高める。
本稿では,コンピュータ科学者の視点からAI安全研究の最新の動向について報告する。
論文 参考訳(メタデータ) (2024-07-06T09:00:18Z) - Towards Trustworthy AI: A Review of Ethical and Robust Large Language Models [1.7466076090043157]
大きな言語モデル(LLM)は多くの分野を変革できるが、その急速な開発は、監視、倫理的創造、ユーザ信頼の構築に重大な課題を生み出している。
この総合的なレビューは、意図しない害、透明性の欠如、攻撃に対する脆弱性、人的価値との整合性、環境への影響など、LLMにおける重要な信頼の問題について考察する。
これらの課題に対処するため、倫理的監視、業界説明責任、規制、公的な関与を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-06-01T14:47:58Z) - Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Discovery of the Hidden World with Large Language Models [95.58823685009727]
本稿では,大きな言語モデル(LLM)を導入してギャップを埋めるCausal representatiOn AssistanT(COAT)を提案する。
LLMは世界中の大規模な観測に基づいて訓練されており、構造化されていないデータから重要な情報を抽出する優れた能力を示している。
COATはまた、特定変数間の因果関係を見つけるためにCDを採用し、提案された要因を反復的に洗練するためにLSMにフィードバックを提供する。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Bridging the Gap Between Explainable AI and Uncertainty Quantification
to Enhance Trustability [0.0]
説明可能なAIと不確かさの定量化という2つの研究方向がますます重要になっているが、これまで決して組み合わせられ、共同で研究されてきたことはない。
両方の研究領域が組み合わさる可能性、なぜこの方向にさらなる研究を行うべきなのか、そしてこれがAIシステムの信頼性向上につながるのかを示します。
論文 参考訳(メタデータ) (2021-05-25T10:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。