論文の概要: What's my role? Modelling responsibility for AI-based safety-critical
systems
- arxiv url: http://arxiv.org/abs/2401.09459v1
- Date: Sat, 30 Dec 2023 13:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 09:13:52.551834
- Title: What's my role? Modelling responsibility for AI-based safety-critical
systems
- Title(参考訳): 私の役割は?
AIに基づく安全クリティカルシステムのモデリング責任
- Authors: Philippa Ryan, Zoe Porter, Joanna Al-Qaddoumi, John McDermid, Ibrahim
Habli
- Abstract要約: 開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
- 参考スコア(独自算出の注目度): 1.0549609328807565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-Based Safety-Critical Systems (AI-SCS) are being increasingly deployed in
the real world. These can pose a risk of harm to people and the environment.
Reducing that risk is an overarching priority during development and operation.
As more AI-SCS become autonomous, a layer of risk management via human
intervention has been removed. Following an accident it will be important to
identify causal contributions and the different responsible actors behind those
to learn from mistakes and prevent similar future events. Many authors have
commented on the "responsibility gap" where it is difficult for developers and
manufacturers to be held responsible for harmful behaviour of an AI-SCS. This
is due to the complex development cycle for AI, uncertainty in AI performance,
and dynamic operating environment. A human operator can become a "liability
sink" absorbing blame for the consequences of AI-SCS outputs they weren't
responsible for creating, and may not have understanding of.
This cross-disciplinary paper considers different senses of responsibility
(role, moral, legal and causal), and how they apply in the context of AI-SCS
safety. We use a core concept (Actor(A) is responsible for Occurrence(O)) to
create role responsibility models, producing a practical method to capture
responsibility relationships and provide clarity on the previously identified
responsibility issues. Our paper demonstrates the approach with two examples: a
retrospective analysis of the Tempe Arizona fatal collision involving an
autonomous vehicle, and a safety focused predictive role-responsibility
analysis for an AI-based diabetes co-morbidity predictor. In both examples our
primary focus is on safety, aiming to reduce unfair or disproportionate blame
being placed on operators or developers. We present a discussion and avenues
for future research.
- Abstract(参考訳): AIベースの安全批判システム(AI-SCS)は、現実世界にますます普及しつつある。
これらは人や環境に害をもたらす可能性がある。
リスクを減らすことは、開発と運用における全体的な優先事項です。
AI-SCSが自律化するにつれて、人間の介入によるリスク管理層が取り除かれた。
事故の後、因果的貢献と背後にあるさまざまな責任あるアクタを特定して、失敗から学び、同様の将来の出来事を防止することが重要です。
多くの著者が、開発者や製造業者がAI-SCSの有害な振る舞いに責任を持つことが難しい「責任ギャップ」についてコメントしている。
これは、AIの複雑な開発サイクル、AIパフォーマンスの不確実性、動的運用環境が原因である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になり、理解できない可能性がある。
この学際的な論文は、異なる責任感(ロール、モラル、法的、因果関係)と、AI-SCS安全性の文脈におけるそれらの適用方法について考察する。
役割責任モデルの作成にはコアコンセプト(アクタ(a)は発生(o)の責任を負う)を使用し、責任関係を捉え、以前に特定した責任問題を明確にするための実践的な方法を生み出します。
本稿では,自律走行車を含むテンペ・アリゾナの致命的衝突の振り返り分析と,AIに基づく糖尿病のコモルビディティ予測のための安全に焦点をあてた役割・責任分析の2つの例を紹介する。
どちらの例も,運用担当者や開発者に対する不公平あるいは不釣り合いな非難を減らすことを目的とした,安全性を重視しています。
今後の研究に向けた議論と道程について述べる。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Risk Alignment in Agentic AI Systems [0.0]
監視の少ない複雑な行動を実行することができるエージェントAIは、そのようなシステムをユーザ、開発者、社会と安全に構築し整合させる方法について、新たな疑問を提起する。
リスクアライメントは、ユーザの満足度と信頼には重要ですが、社会にさらに大きな影響をもたらします。
これらの質問の重要な規範的および技術的側面を論じる3つの論文を提示する。
論文 参考訳(メタデータ) (2024-10-02T18:21:08Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - A risk-based approach to assessing liability risk for AI-driven harms
considering EU liability directive [0.0]
AIによる害の歴史的事例により、欧州連合はAIの責任指令を制定した。
製品責任主張に競合するプロバイダの今後の能力は、AIシステムの設計、開発、保守において採用される優れたプラクティスに依存します。
本稿では,AIによる外傷に対する責任を検討するためのリスクベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-18T15:52:43Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Operationalising Responsible AI Using a Pattern-Oriented Approach: A
Case Study on Chatbots in Financial Services [11.33499498841489]
責任AI(Responsible AI)は、人間、社会、環境に利益をもたらす方法でAIシステムを開発し、利用するプラクティスである。
さまざまな責任あるAI原則が最近リリースされたが、これらの原則は非常に抽象的で実用的ではない。
ギャップを埋めるために、パターン指向のアプローチを採用し、責任あるAIパターンカタログを構築します。
論文 参考訳(メタデータ) (2023-01-03T23:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。