論文の概要: Towards a Policy-as-a-Service Framework to Enable Compliant, Trustworthy
AI and HRI Systems in the Wild
- arxiv url: http://arxiv.org/abs/2010.07022v1
- Date: Tue, 6 Oct 2020 18:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-29 19:55:08.741871
- Title: Towards a Policy-as-a-Service Framework to Enable Compliant, Trustworthy
AI and HRI Systems in the Wild
- Title(参考訳): オープンで信頼できるAIとHRIシステムを実現するためのポリシ・アズ・ア・サービス・フレームワーク
- Authors: Alexis Morris and Hallie Siegel and Jonathan Kelly
- Abstract要約: 信頼できる自律システムの構築は、単に「常に正しいことをする」エージェントを雇おうとする以上の多くの理由から難しい。
AIとHRIには、信頼の問題は本質的に社会技術的である、というより広い文脈がある。
本稿では, 信頼性の「ファジィ」な社会技術的側面と, 設計・展開の両面での配慮の必要性を強調した。
- 参考スコア(独自算出の注目度): 7.225523345649149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building trustworthy autonomous systems is challenging for many reasons
beyond simply trying to engineer agents that 'always do the right thing.' There
is a broader context that is often not considered within AI and HRI: that the
problem of trustworthiness is inherently socio-technical and ultimately
involves a broad set of complex human factors and multidimensional
relationships that can arise between agents, humans, organizations, and even
governments and legal institutions, each with their own understanding and
definitions of trust. This complexity presents a significant barrier to the
development of trustworthy AI and HRI systems---while systems developers may
desire to have their systems 'always do the right thing,' they generally lack
the practical tools and expertise in law, regulation, policy and ethics to
ensure this outcome. In this paper, we emphasize the "fuzzy" socio-technical
aspects of trustworthiness and the need for their careful consideration during
both design and deployment. We hope to contribute to the discussion of
trustworthy engineering in AI and HRI by i) describing the policy landscape
that must be considered when addressing trustworthy computing and the need for
usable trust models, ii) highlighting an opportunity for trustworthy-by-design
intervention within the systems engineering process, and iii) introducing the
concept of a "policy-as-a-service" (PaaS) framework that can be readily applied
by AI systems engineers to address the fuzzy problem of trust during the
development and (eventually) runtime process. We envision that the PaaS
approach, which offloads the development of policy design parameters and
maintenance of policy standards to policy experts, will enable runtime trust
capabilities intelligent systems in the wild.
- Abstract(参考訳): 信頼できる自律システムを構築することは、単に「常に正しいことをする」エージェントを雇おうとする以上の多くの理由から難しい。
信頼の問題は本質的に社会技術的であり、究極的にはエージェント、人間、組織、さらには政府や法律機関の間で起こりうる、幅広い複雑な人間的要因と多次元の関係を伴っている。
この複雑さは、信頼できるAIとHRIシステムの開発に重大な障壁をもたらす。システム開発者は、自分たちのシステムを"常に正しいことをする"ことを望むかもしれないが、一般的に、この結果を保証するために法律、規制、ポリシー、倫理に関する実践的なツールや専門知識が欠けている。
本稿では, 信頼性の「ファジィ」な社会技術的側面と, 設計・展開の両面での配慮の必要性を強調した。
AIとHRIによる信頼できるエンジニアリングの議論に貢献したい。
一 信頼できるコンピューティングに取り組む際に考慮すべきポリシーの状況及び利用可能な信頼モデルの必要性について記述すること。
二 システム工学過程における設計的介入の機会を強調すること、及び
iii) 開発および(事実上)ランタイムプロセス中の信頼という曖昧な問題に対処するために、aiシステムエンジニアが容易に適用できる"policy-as-a-service"(paas)フレームワークの概念を導入すること。
ポリシー設計パラメータの開発とポリシー標準のメンテナンスをポリシー専門家にオフロードするPaaSアプローチが、実行時の信頼機能を実現することを想定しています。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Towards Trustworthy AI: A Review of Ethical and Robust Large Language Models [1.7466076090043157]
大きな言語モデル(LLM)は多くの分野を変革できるが、その急速な開発は、監視、倫理的創造、ユーザ信頼の構築に重大な課題を生み出している。
この総合的なレビューは、意図しない害、透明性の欠如、攻撃に対する脆弱性、人的価値との整合性、環境への影響など、LLMにおける重要な信頼の問題について考察する。
これらの課題に対処するため、倫理的監視、業界説明責任、規制、公的な関与を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-06-01T14:47:58Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。