論文の概要: The Development of Visualization Psychology Analysis Tools to Account
for Trust
- arxiv url: http://arxiv.org/abs/2009.13200v1
- Date: Mon, 28 Sep 2020 10:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:15:05.178310
- Title: The Development of Visualization Psychology Analysis Tools to Account
for Trust
- Title(参考訳): 信頼感を考慮した可視化心理学分析ツールの開発
- Authors: Rita Borgo and Darren J Edwards
- Abstract要約: 信頼の定義は、新しく形成された自律産業のイノベーションの多くに公共のムードを評価することの適用性を考えると、重要な取り組みである。
信頼できる指標や信頼度を測定する手段を開発することで、スマートシステムの受容と採用を促進することから、政策立案者に公共の雰囲気や変化を受け入れる意思を伝えることまで、幅広い影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Defining trust is an important endeavor given its applicability to assessing
public mood to much of the innovation in the newly formed autonomous industry,
such as artificial intelligence (AI),medical bots, drones, autonomous vehicles,
and smart factories [19].Through developing a reliable index or means to
measure trust,this may have wide impact from fostering acceptance and adoption
of smart systems to informing policy makers about the public atmosphere and
willingness to adopt innovate change, and has been identified as an important
indicator in a recent UK policy brief [8].In this paper, we reflect on the
importance and potential impact of developing Visualization Psychology in the
context of solving definitions and policy decision making problems for complex
constructs such as "trust".
- Abstract(参考訳): 信頼の定義は、人工知能(AI)、医療ロボット、ドローン、自動運転車、スマートファクトリ(19)など、新しく形成された自律産業のイノベーションの多くに対して、公衆のムードを評価することの適用性を考えると、重要な取り組みである。
信頼性のある指標や信頼度測定手段の開発を通じて、スマートシステムの受容と採用を促進することから、政策立案者に公衆の雰囲気や革新的変革の意思を伝えることまで幅広い影響を与える可能性がある。
本稿では,「信頼」のような複雑な構成物に対する定義や政策決定の問題の解決という文脈において,可視化心理学の発展の重要性と潜在的影響を考察する。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Towards Trustworthy Retrieval Augmented Generation for Large Language Models: A Survey [92.36487127683053]
Retrieval-Augmented Generation (RAG)は、AIGC(AIGC)の課題に対処するために設計された高度な技術である。
RAGは信頼性と最新の外部知識を提供し、幻覚を減らし、幅広いタスクで関連するコンテキストを保証する。
RAGの成功と可能性にもかかわらず、最近の研究により、RAGパラダイムはプライバシーの懸念、敵対的攻撃、説明責任の問題など、新たなリスクももたらしていることが示されている。
論文 参考訳(メタデータ) (2025-02-08T06:50:47Z) - Towards Trustworthy AI: A Review of Ethical and Robust Large Language Models [1.7466076090043157]
大きな言語モデル(LLM)は多くの分野を変革できるが、その急速な開発は、監視、倫理的創造、ユーザ信頼の構築に重大な課題を生み出している。
この総合的なレビューは、意図しない害、透明性の欠如、攻撃に対する脆弱性、人的価値との整合性、環境への影響など、LLMにおける重要な信頼の問題について考察する。
これらの課題に対処するため、倫理的監視、業界説明責任、規制、公的な関与を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-06-01T14:47:58Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - Establishing trust in automated reasoning [0.0]
この研究は、科学の重要な信頼源である独立したレビューに焦点を当て、そのレビュー可能性に影響を与える自動推論システムの特徴を特定する。
また、技術的・社会的措置を組み合わせることで、信頼性と信頼性を高めるためのステップについても論じている。
論文 参考訳(メタデータ) (2023-08-31T08:02:25Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。