論文の概要: Rethinking Trust in AI Assistants for Software Development: A Critical Review
- arxiv url: http://arxiv.org/abs/2504.12461v1
- Date: Wed, 16 Apr 2025 19:52:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:23.673469
- Title: Rethinking Trust in AI Assistants for Software Development: A Critical Review
- Title(参考訳): ソフトウェア開発のためのAIアシスタントの信頼を再考する - 批判的レビュー
- Authors: Sebastian Baltes, Timo Speith, Brenda Chiteri, Seyedmoein Mohsenimofidi, Shalini Chakraborty, Daniel Buschek,
- Abstract要約: 信頼は人間の意思決定とコラボレーションの基本的な概念である。
ソフトウェアエンジニアリングの記事は、しばしば非公式に「信頼」という言葉を使う。
共通の定義がなければ、信頼に関する真の二次研究は不可能である。
- 参考スコア(独自算出の注目度): 16.774993642353724
- License:
- Abstract: Trust is a fundamental concept in human decision-making and collaboration that has long been studied in philosophy and psychology. However, software engineering (SE) articles often use the term 'trust' informally - providing an explicit definition or embedding results in established trust models is rare. In SE research on AI assistants, this practice culminates in equating trust with the likelihood of accepting generated content, which does not capture the full complexity of the trust concept. Without a common definition, true secondary research on trust is impossible. The objectives of our research were: (1) to present the psychological and philosophical foundations of human trust, (2) to systematically study how trust is conceptualized in SE and the related disciplines human-computer interaction and information systems, and (3) to discuss limitations of equating trust with content acceptance, outlining how SE research can adopt existing trust models to overcome the widespread informal use of the term 'trust'. We conducted a literature review across disciplines and a critical review of recent SE articles focusing on conceptualizations of trust. We found that trust is rarely defined or conceptualized in SE articles. Related disciplines commonly embed their methodology and results in established trust models, clearly distinguishing, for example, between initial trust and trust formation and discussing whether and when trust can be applied to AI assistants. Our study reveals a significant maturity gap of trust research in SE compared to related disciplines. We provide concrete recommendations on how SE researchers can adopt established trust models and instruments to study trust in AI assistants beyond the acceptance of generated software artifacts.
- Abstract(参考訳): 信頼は人間の意思決定と協力の基本的な概念であり、哲学や心理学で長年研究されてきた。
しかしながら、ソフトウェアエンジニアリング(SE)の記事は、しばしば「信頼」という言葉を非公式に使用します。
AIアシスタントに関するSE研究において、このプラクティスは、信頼の概念の完全な複雑さを捉えない、生成されたコンテンツを受け入れる可能性と信頼を同一視する上で決定的となる。
共通の定義がなければ、信頼に関する真の二次研究は不可能である。
本研究の目的は,(1)人間信頼の心理的・哲学的基礎を提示すること,(2)SEにおける信頼の概念化と人間とコンピュータの相互作用と情報システムの関連分野を体系的に研究すること,(3)SE研究が「信頼」という用語の非公式使用を克服するために既存の信頼モデルをいかに採用できるかを概説することである。
我々は,諸分野にわたる文献レビューを行い,信頼の概念化に焦点をあてた最近のSE記事の批判的なレビューを行った。
信頼はSEの記事で定義または概念化されることはめったにない。
関連する規律は、一般的に彼らの方法論と結果を確立された信頼モデルに組み込み、例えば、初期の信頼と信頼の形成を明確に区別し、AIアシスタントに信頼が適用できるかどうか、いつ議論する。
本研究は,SEにおける信頼研究の成熟度ギャップを,関連分野と比較して明らかにした。
我々は、SE研究者がAIアシスタントへの信頼を、生成したソフトウェアアーティファクトの受け入れを超えて研究するために、確立された信頼モデルと機器をどのように採用できるかを具体的に推奨する。
関連論文リスト
- On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective [314.7991906491166]
Generative Foundation Models (GenFMs) がトランスフォーメーションツールとして登場した。
彼らの広く採用されていることは、次元の信頼に関する重要な懸念を提起する。
本稿では,3つの主要なコントリビューションを通じて,これらの課題に対処するための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-20T06:20:36Z) - Fostering Trust and Quantifying Value of AI and ML [0.0]
AIとML推論の信頼について多くの議論がなされているが、それが何を意味するのかを定義するためにはほとんど行われていない。
より信頼できる機械学習推論を生み出すことは、製品の価値を高めるための道です。
論文 参考訳(メタデータ) (2024-07-08T13:25:28Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。