論文の概要: Unravelling Responsibility for AI
- arxiv url: http://arxiv.org/abs/2308.02608v1
- Date: Fri, 4 Aug 2023 13:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 19:35:48.502907
- Title: Unravelling Responsibility for AI
- Title(参考訳): aiの責任を解き放つ
- Authors: Zoe Porter, Joanna Al-Qaddoumi, Philippa Ryan Conmy, Phillip Morgan,
John McDermid, Ibrahim Habli
- Abstract要約: 本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
- 参考スコア(独自算出の注目度): 4.651940161506203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To reason about where responsibility does and should lie in complex
situations involving AI-enabled systems, we first need a sufficiently clear and
detailed cross-disciplinary vocabulary for talking about responsibility.
Responsibility is a triadic relation involving an actor, an occurrence, and a
way of being responsible. As part of a conscious effort towards 'unravelling'
the concept of responsibility to support practical reasoning about
responsibility for AI, this paper takes the three-part formulation, 'Actor A is
responsible for Occurrence O' and identifies valid combinations of
subcategories of A, is responsible for, and O. These valid combinations - which
we term "responsibility strings" - are grouped into four senses of
responsibility: role-responsibility; causal responsibility; legal
liability-responsibility; and moral responsibility. They are illustrated with
two running examples, one involving a healthcare AI-based system and another
the fatal collision of an AV with a pedestrian in Tempe, Arizona in 2018. The
output of the paper is 81 responsibility strings. The aim is that these strings
provide the vocabulary for people across disciplines to be clear and specific
about the different ways that different actors are responsible for different
occurrences within a complex event for which responsibility is sought, allowing
for precise and targeted interdisciplinary normative deliberations.
- Abstract(参考訳): AI対応システムに関わる複雑な状況において、責任がどこにあるのかを推論するには、まず、責任について話すために十分な明確で詳細な学際的な語彙が必要です。
責任(Responsibility)とは、俳優、発生、責任を負う方法を含む三項関係である。
As part of a conscious effort towards 'unravelling' the concept of responsibility to support practical reasoning about responsibility for AI, this paper takes the three-part formulation, 'Actor A is responsible for Occurrence O' and identifies valid combinations of subcategories of A, is responsible for, and O. These valid combinations - which we term "responsibility strings" - are grouped into four senses of responsibility: role-responsibility; causal responsibility; legal liability-responsibility; and moral responsibility.
ひとつは医療用AIベースのシステムで、もうひとつは2018年にアリゾナ州テンペで歩行者とAVの致命的な衝突を取り上げたものだ。
紙の出力は81の責任文字列である。
その目的は、これらの文字列が、異なるアクターが、責任が求められる複雑なイベントの中で、さまざまな発生に対して責任を負う異なる方法について、明確かつ明確になるための語彙を提供することである。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - Responsibility in Extensive Form Games [1.4104545468525629]
2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
論文 参考訳(メタデータ) (2023-12-12T10:41:17Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Moral Responsibility for AI Systems [8.919993498343159]
何らかの行動を行うエージェントの結果に対する道徳的責任は、因果的状態とてんかん的状態の両方を巻き込むために一般的に取られる。
本稿では,因果モデルの枠組みにおける両条件の形式的定義について述べる。
論文 参考訳(メタデータ) (2023-10-27T10:37:47Z) - Complex accident, clear responsibility [0.0]
本研究では,RCModel(Risk Chain Model)に基づく多目的責任配分最適化手法を提案する。
技術的観点から各俳優の責任を分析し、より合理的で公平な責任割り当てを促進する。
論文 参考訳(メタデータ) (2023-06-21T08:47:35Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Asking It All: Generating Contextualized Questions for any Semantic Role [56.724302729493594]
本稿では,役割質問生成の課題について紹介する。
このタスクの2段階モデルを開発し、まず、各ロールに対する文脈に依存しない質問プロトタイプを作成する。
我々の評価は、述語と役割の大規模かつ広範な包括的領域に対して、多種多様でよく形成された質問を生成することを示す。
論文 参考訳(メタデータ) (2021-09-10T12:31:14Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Responsible AI and Its Stakeholders [14.129366395072026]
我々は、AIを含むすべての利害関係者に対する責任(責任、責任、責任)の3つの概念について議論し、この問題における司法権と一般市民の役割を提案する。
論文 参考訳(メタデータ) (2020-04-23T19:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。