論文の概要: An Empirical Exploration of Trust Dynamics in LLM Supply Chains
- arxiv url: http://arxiv.org/abs/2405.16310v1
- Date: Sat, 25 May 2024 17:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 21:57:23.867401
- Title: An Empirical Exploration of Trust Dynamics in LLM Supply Chains
- Title(参考訳): LLMサプライチェーンにおけるトラストダイナミクスの実証実験
- Authors: Agathe Balayn, Mireia Yurrita, Fanny Rancourt, Fabio Casati, Ujwal Gadiraju,
- Abstract要約: 我々は、AIシステムが生み出す複雑で動的なサプライチェーンを考慮し、AIへの信頼に対処する研究の範囲を広げることを主張する。
私たちの研究は、新たなタイプの信頼者、信頼者、信頼関係に影響を与える新しい要因を明らかにします。
- 参考スコア(独自算出の注目度): 11.057310859302248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the widespread proliferation of AI systems, trust in AI is an important and timely topic to navigate. Researchers so far have largely employed a myopic view of this relationship. In particular, a limited number of relevant trustors (e.g., end-users) and trustees (i.e., AI systems) have been considered, and empirical explorations have remained in laboratory settings, potentially overlooking factors that impact human-AI relationships in the real world. In this paper, we argue for broadening the scope of studies addressing `trust in AI' by accounting for the complex and dynamic supply chains that AI systems result from. AI supply chains entail various technical artifacts that diverse individuals, organizations, and stakeholders interact with, in a variety of ways. We present insights from an in-situ, empirical study of LLM supply chains. Our work reveals additional types of trustors and trustees and new factors impacting their trust relationships. These relationships were found to be central to the development and adoption of LLMs, but they can also be the terrain for uncalibrated trust and reliance on untrustworthy LLMs. Based on these findings, we discuss the implications for research on `trust in AI'. We highlight new research opportunities and challenges concerning the appropriate study of inter-actor relationships across the supply chain and the development of calibrated trust and meaningful reliance behaviors. We also question the meaning of building trust in the LLM supply chain.
- Abstract(参考訳): AIシステムの普及に伴い、AIへの信頼は、ナビゲートするための重要かつタイムリーなトピックである。
これまでの研究者は、この関係の神秘的な見解を多く採用してきた。
特に、限られた数の関連する委託者(エンドユーザー、AIシステムなど)と委託者(AIシステム)が検討され、実験的な調査は実験室で行われ、現実世界における人間とAIの関係に影響を及ぼす要因を見落としている可能性がある。
本稿では、AIシステムが生み出す複雑で動的なサプライチェーンを考慮し、「AIにおける信頼」に対処する研究の範囲を広げることについて議論する。
AIサプライチェーンは、さまざまな個人、組織、利害関係者がさまざまな方法で相互作用するさまざまな技術的アーティファクトを包含する。
LLMサプライチェーンのin-situ, empirical studyから得られた知見を報告する。
私たちの研究は、新たなタイプの信頼者、信頼者、信頼関係に影響を与える新しい要因を明らかにします。
これらの関係はLLMの開発と採用の中心であることがわかったが、信頼できないLLMへの信頼と信頼の欠如の地でもある。
これらの知見に基づき,「AIにおける信頼」研究の意義について論じる。
我々は,サプライチェーン全体にわたるアクター間関係の適切な研究と,キャリブレーションされた信頼と有意義な依存行動の開発に関する新たな研究機会と課題を強調した。
また,LLMサプライチェーンにおける信頼構築の意味についても疑問を呈する。
関連論文リスト
- A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Leveraging Multi-AI Agents for Cross-Domain Knowledge Discovery [0.0]
本研究では,マルチAIエージェントの展開によるドメイン間知識発見への新たなアプローチを提案する。
本研究は,知識ギャップの特定とブリッジングにおいて,ドメイン固有マルチAIエージェントシステムの優れた能力を示すものである。
論文 参考訳(メタデータ) (2024-04-12T14:50:41Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Private Knowledge Sharing in Distributed Learning: A Survey [50.51431815732716]
人工知能の台頭は多くの産業に革命をもたらし、社会の働き方を変えた。
異なるエンティティが分散または所有する学習プロセスにおいて、情報を活用することが不可欠である。
現代のデータ駆動サービスは、分散知識エンティティを結果に統合するために開発されています。
論文 参考訳(メタデータ) (2024-02-08T07:18:23Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Bridging the Gap Between Explainable AI and Uncertainty Quantification
to Enhance Trustability [0.0]
説明可能なAIと不確かさの定量化という2つの研究方向がますます重要になっているが、これまで決して組み合わせられ、共同で研究されてきたことはない。
両方の研究領域が組み合わさる可能性、なぜこの方向にさらなる研究を行うべきなのか、そしてこれがAIシステムの信頼性向上につながるのかを示します。
論文 参考訳(メタデータ) (2021-05-25T10:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。