論文の概要: Designing Fiduciary Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2308.02435v1
- Date: Thu, 27 Jul 2023 15:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 01:26:56.899090
- Title: Designing Fiduciary Artificial Intelligence
- Title(参考訳): ファジィ人工知能の設計
- Authors: Sebastian Benthall and David Shekman
- Abstract要約: 本稿では、コンピュータサイエンスと法学における最近の研究を合成し、学位AIを設計・監査するための手順を開発する。
学部AIの設計者は、システムのコンテキストを理解し、そのプリンシパルを特定し、それらのプリンシパルの最善の利益を評価する必要がある。
この手順のステップを、プライバシやアライメントといった信頼できるAIの次元に接続します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fiduciary is a trusted agent that has the legal duty to act with loyalty
and care towards a principal that employs them. When fiduciary organizations
interact with users through a digital interface, or otherwise automate their
operations with artificial intelligence, they will need to design these AI
systems to be compliant with their duties. This article synthesizes recent work
in computer science and law to develop a procedure for designing and auditing
Fiduciary AI. The designer of a Fiduciary AI should understand the context of
the system, identify its principals, and assess the best interests of those
principals. Then the designer must be loyal with respect to those interests,
and careful in an contextually appropriate way. We connect the steps in this
procedure to dimensions of Trustworthy AI, such as privacy and alignment.
Fiduciary AI is a promising means to address the incompleteness of data
subject's consent when interacting with complex technical systems.
- Abstract(参考訳): 受託者(fiduciary)は信頼された代理人であり、それを雇用する校長に対して忠誠心と注意をもって行動する法的義務を持つ。
架空の組織がデジタルインターフェースを通じてユーザと対話したり、人工知能で操作を自動化する場合、その義務に準拠するように、これらのAIシステムを設計する必要がある。
本稿では、コンピュータサイエンスと法学における最近の研究を合成し、学位AIの設計と監査の手順を開発する。
学部AIの設計者は、システムのコンテキストを理解し、そのプリンシパルを特定し、それらのプリンシパルの最善の利益を評価する必要がある。
そして、デザイナーはそれらの利益に忠実で、文脈的に適切な方法で注意しなければなりません。
この手順のステップを、プライバシやアライメントといった信頼できるAIの次元に接続します。
Fiduciary AIは、複雑な技術システムと対話する際に、データ対象の同意の不完全性に対処するための有望な手段である。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Responsible Artificial Intelligence -- from Principles to Practice [5.5586788751870175]
AIは私たちの働き方を変え、生き、課題を解決しています。
しかし、公正性、透明性、プライバシーに関する懸念も高まっている。
責任の保証、倫理的AIは、結果が信頼できるシステムを設計する以上のものです。
論文 参考訳(メタデータ) (2022-05-22T09:28:54Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Towards a Policy-as-a-Service Framework to Enable Compliant, Trustworthy
AI and HRI Systems in the Wild [7.225523345649149]
信頼できる自律システムの構築は、単に「常に正しいことをする」エージェントを雇おうとする以上の多くの理由から難しい。
AIとHRIには、信頼の問題は本質的に社会技術的である、というより広い文脈がある。
本稿では, 信頼性の「ファジィ」な社会技術的側面と, 設計・展開の両面での配慮の必要性を強調した。
論文 参考訳(メタデータ) (2020-10-06T18:32:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - AI loyalty: A New Paradigm for Aligning Stakeholder Interests [0.0]
我々は、AI倫理における他の重要な価値と共に、技術設計プロセスにおいてAIの忠誠心が考慮されるべきであると主張する。
我々は、将来のAIシステムにAI忠誠を組み込むための様々なメカニズムについて論じる。
論文 参考訳(メタデータ) (2020-03-24T23:55:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。