論文の概要: Beyond Abstract Compliance: Operationalising trust in AI as a moral relationship
- arxiv url: http://arxiv.org/abs/2601.22769v1
- Date: Fri, 30 Jan 2026 09:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.36131
- Title: Beyond Abstract Compliance: Operationalising trust in AI as a moral relationship
- Title(参考訳): 抽象コンプライアンスを超えて - 道徳的関係としてのAIへの信頼の運用
- Authors: Lameck Mbangula Amugongo, Tutaleni Asino, Nicola J Bidwell,
- Abstract要約: 本稿では、共通開発手法に組み込むことができるAIに対する信頼のための拡張された原則を提案する。
我々は、関係倫理、特にアフリカ共産主義哲学に基づいて、包括的、参加的プロセスのニュアンスを予見する。
AIライフサイクル全体を通じてコミュニティを巻き込むことは、AI設計と開発チームとの有意義な関係を育むことができる。
- 参考スコア(独自算出の注目度): 1.0498094137943175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dominant approaches, e.g. the EU's "Trustworthy AI framework", treat trust as a property that can be designed for, evaluated, and governed according to normative and technical criteria. They do not address how trust is subjectively cultivated and experienced, culturally embedded, and inherently relational. This paper proposes some expanded principles for trust in AI that can be incorporated into common development methods and frame trust as a dynamic, temporal relationship, which involves transparency and mutual respect. We draw on relational ethics and, in particular, African communitarian philosophies, to foreground the nuances of inclusive, participatory processes and long-term relationships with communities. Involving communities throughout the AI lifecycle can foster meaningful relationships with AI design and development teams that incrementally build trust and promote more equitable and context-sensitive AI systems. We illustrate how trust-enabling principles based on African relational ethics can be operationalised, using two use-cases for AI: healthcare and education.
- Abstract(参考訳): 支配的なアプローチ、例えばEUの"Trustworthy AIフレームワーク"は、標準的および技術的基準に従って設計、評価、管理できる特性として信頼を扱います。
信頼がどのように主観的に栽培され、経験され、文化的に組み込まれ、本質的にリレーショナルであるかを論じるものではない。
本稿では、共通開発手法に組み込むことができるAIの信頼のための拡張された原則と、透明性と相互尊重を含む動的かつ時間的関係としての信頼の枠組みを提案する。
我々は、関係倫理、特にアフリカ共産主義哲学に基づいて、包括的、参加的プロセス、およびコミュニティとの長期的な関係のニュアンスを予見する。
AIライフサイクル全体を通じてコミュニティを巻き込むことは、信頼を段階的に構築し、より公平で状況に敏感なAIシステムを促進するAI設計と開発チームとの有意義な関係を育むことができる。
我々は、医療と教育の2つのユースケースを使用して、アフリカのリレーショナル倫理に基づく信頼を喚起する原則をどのように運用するかを説明する。
関連論文リスト
- Enriching Moral Perspectives on AI: Concepts of Trust amongst Africans [2.9108763024251805]
アフリカ25カ国のプロフェッショナルおよび/または教育的関心を持つ157人を調査した。
ほとんどの回答者は、ナミビアとガーナのアフリカにおける信頼とAIに関するワークショップと関連があった。
我々の研究は、AI設計、利用、ガバナンスのアフリカの社会現実において、信頼が実践され、経験されている方法について、より実証的な研究を動機付けている。
論文 参考訳(メタデータ) (2025-08-18T12:04:40Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - A multilevel framework for AI governance [6.230751621285321]
政府、企業、市民が関与する多段階的なガバナンスアプローチを提案する。
ガバナンスのレベルとAIの信頼の次元が組み合わさって、ユーザエクスペリエンスをさらに強化し、AIに関連する公開ポリシーを通知するために使用できる実践的な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-04T03:59:16Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。