論文の概要、ライセンス

# (参考訳) 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 [全文訳有]

The Conflict Between Explainable and Accountable Decision-Making Algorithms ( http://arxiv.org/abs/2205.05306v1 )

ライセンス: CC BY 4.0
Gabriel Lima, Nina Grgi\'c-Hla\v{c}a, Jin Keun Jeong, Meeyoung Cha(参考訳) 意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。 これらのシステムは、現在高リスクシナリオにデプロイされているが、多くは彼らの決定を説明することができない。 この制限により、説明可能な人工知能(XAI)イニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するためにアルゴリズムを説明できるようにする。 本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。 ポストホックな説明を提供するxaiシステムは非難に値するエージェントと見なすことができ、意思決定プロセスにおいて開発者の責任を負うことができると提案する。 さらに,xaiは,説明可能なアルゴリズムを制御しているという誤った認識により,アルゴリズム的意思決定(すなわち患者)を受けるような,脆弱な利害関係者に対する責任の帰属を誤ったものにする可能性がある。 この説明可能性と説明責任の対立は、デザイナーがアルゴリズムと患者を道徳的および法的スケープゴートとして使用する場合、さらに悪化する可能性がある。 我々は,アルゴリズムによる意思決定の社会技術的プロセスにおいて,この緊張にどのようにアプローチするか,デザイナーが責任を負うことを防ぐための厳しい規制を守るための一連の勧告で結論付けた。

Decision-making algorithms are being used in important decisions, such as who should be enrolled in health care programs and be hired. Even though these systems are currently deployed in high-stakes scenarios, many of them cannot explain their decisions. This limitation has prompted the Explainable Artificial Intelligence (XAI) initiative, which aims to make algorithms explainable to comply with legal requirements, promote trust, and maintain accountability. This paper questions whether and to what extent explainability can help solve the responsibility issues posed by autonomous AI systems. We suggest that XAI systems that provide post-hoc explanations could be seen as blameworthy agents, obscuring the responsibility of developers in the decision-making process. Furthermore, we argue that XAI could result in incorrect attributions of responsibility to vulnerable stakeholders, such as those who are subjected to algorithmic decisions (i.e., patients), due to a misguided perception that they have control over explainable algorithms. This conflict between explainability and accountability can be exacerbated if designers choose to use algorithms and patients as moral and legal scapegoats. We conclude with a set of recommendations for how to approach this tension in the socio-technical process of algorithmic decision-making and a defense of hard regulation to prevent designers from escaping responsibility.
公開日: Wed, 11 May 2022 07:19:28 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] Y C . s c [ ] のc。 sc [ 0.42
1 v 6 0 3 5 0 1 v 6 0 3 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
GABRIEL LIMA, School of Computing, KAIST & Data Science Group, IBS, Republic of Korea NINA GRGIĆ-HLAČA, Max Planck Institute for Software Systems & Max Planck Institute for Research on Collective Goods, Germany JIN KEUN JEONG, Kangwon National University, Republic of Korea MEEYOUNG CHA, Data Science Group, IBS & School of Computing, KAIST, Republic of Korea Decision-making algorithms are being used in important decisions, such as who should be enrolled in health care programs and be hired. GABRIEL LIMA, School of Computing, KAIST & Data Science Group, IBS, Republic of Korea NINA GRGIU-HLA.A, Max Planck Institute for Software Systems & Max Planck Institute for Research on Collective Goods, Germany JIN KEUN JEONG, Kangwon National University, Republic of Korea MEEYOUNG CHA, Data Science Group, IBS & School of Computing, KAIST, Republic of Korea Decision-making algorithmは、医療プログラムに登録して雇用されるかといった重要な決定に使われている。 0.90
Even though these systems are currently deployed in high-stakes scenarios, many of them cannot explain their decisions. これらのシステムは、現在高リスクシナリオにデプロイされているが、多くは彼らの決定を説明することができない。 0.51
This limitation has prompted the Explainable Artificial Intelligence (XAI) initiative, which aims to make algorithms explainable to comply with legal requirements, promote trust, and maintain accountability. この制限により、説明可能な人工知能(XAI)イニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するためにアルゴリズムを説明できるようにする。 0.64
This paper questions whether and to what extent explainability can help solve the responsibility issues posed by autonomous AI systems. 本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。 0.63
We suggest that XAI systems that provide post-hoc explanations could be seen as blameworthy agents, obscuring the responsibility of developers in the decision-making process. ポストホックな説明を提供するxaiシステムは非難に値するエージェントと見なすことができ、意思決定プロセスにおいて開発者の責任を負うことができると提案する。 0.56
Furthermore, we argue that XAI could result in incorrect attributions of responsibility to vulnerable stakeholders, such as those who are subjected to algorithmic decisions (i.e., patients), due to a misguided perception that they have control over explainable algorithms. さらに,xaiは,説明可能なアルゴリズムを制御しているという誤った認識により,アルゴリズム的意思決定(すなわち患者)を受けるような,脆弱な利害関係者に対する責任の帰属を誤ったものにする可能性がある。 0.80
This conflict between explainability and accountability can be exacerbated if designers choose to use algorithms and patients as moral and legal scapegoats. この説明可能性と説明責任の対立は、デザイナーがアルゴリズムと患者を道徳的および法的スケープゴートとして使用する場合、さらに悪化する可能性がある。
訳抜け防止モード: この説明可能性と説明責任の衝突は デザイナーは、アルゴリズムと患者を道徳的かつ法的スケープゴートとして使うことを選ぶ。
0.58
We conclude with a set of recommendations for how to approach this tension in the socio-technical process of algorithmic decision-making and a defense of hard regulation to prevent designers from escaping responsibility. 我々は,アルゴリズムによる意思決定の社会技術的プロセスにおいて,この緊張にどのようにアプローチするか,デザイナーが責任を負うことを防ぐための厳しい規制を守るための一連の勧告で結論付けた。 0.66
CCS Concepts: • Applied computing → Law; Psychology; • Social and professional topics → Governmental regulations; • Computing methodologies → Philosophical/theore tical foundations of artificial intelligence. CCS概念: • 応用コンピューティング → 法; 心理学; • 社会と専門のトピック → 政府の規制; • 計算方法論 → 人工知能の哲学的・理論的基礎 0.88
Additional Key Words and Phrases: Responsibility, Accountability, Explainability, Artificial Intelligence, AI, Decision-Making, Algorithms, Blame, Designers, Patients, Users 追加のキーワードとフレーズ:責任、説明責任、説明可能性、人工知能、AI、意思決定、アルゴリズム、ブレーム、デザイナ、患者、ユーザ 0.72
ACM Reference Format: Gabriel Lima, Nina Grgić-Hlača, Jin Keun Jeong, and Meeyoung Cha. ACM参照フォーマット:Gabriel Lima、Nina Grgić-Hlača、Jin Keun Jeong、Meeyoung Cha。 0.76
2022. The Conflict Between Explainable and Accountable Decision-Making Algorithms. 2022. 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.48
In 2022 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’22), June 21–24, 2022, Seoul, Republic of Korea. 2022年6月21-24日、大韓民国ソウルの公正、説明責任、透明性に関するACM会議(FAccT'22)。 0.73
ACM, New York, NY, USA, 18 pages. ACM, New York, NY, USA, 18ページ。 0.80
https://doi.org/10.1 145/3531146.3534628 https://doi.org/10.1 145/3531146.3534628 0.15
1 INTRODUCTION Artificial Intelligence (AI) is now used in a wide range of situations, from low-stakes scenarios like entertainment [90] to high-stakes life-or-death decisions like selecting who should be prioritized for medical help [75]. 1 導入型人工知能(ai: introduction artificial intelligence)は現在、エンターテイメント(90]のような低リスクシナリオから、医療支援に優先順位を付ける人を選ぶ(75])など、幅広い状況で使用されています。 0.70
Extensive research has inquired whether algorithmic decision-making has negative implications for society. 大規模な研究は、アルゴリズムによる意思決定が社会に悪影響を及ぼすかどうかを調査している。 0.43
Studies have observed, for Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 研究は、例えば、 本作品のデジタル又はハードコピー又は一部を個人的又は教室で使用するための許可は、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で付与される。
訳抜け防止モード: 研究は、例えば、 この作品の全部又は一部をデジタル又はハードコピーして個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.71
Copyrights for components of this work owned by others than ACM must be honored. ACM以外の者が所有するこの作品のコンポーネントの著作権を尊重しなければならない。 0.62
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
© 2022 Association for Computing Machinery. 2022年 - 計算機学会設立。 0.54
Manuscript submitted to ACM ACMに提出された写本 0.63
1 1 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al instance, algorithmic bail decisions to be racially biased [2], discussed how AI systems1 used for hiring decisions could embed biases [8], and found online advertisement to discriminate against women [27]. limaなど。 例えば、人種的に偏見を抱くアルゴリズムによる保釈決定[2]、雇用決定にAIシステム1がどのように使われているか、[8]、女性を差別するオンライン広告を見出した[27]。 0.59
A major problem with most decision-making algorithms is their opacity. ほとんどの意思決定アルゴリズムの大きな問題は不透明さである。 0.70
Most algorithms are black boxes that do not offer explanations for their decisions, recommendations, or processing [76]. ほとんどのアルゴリズムはブラックボックスで、決定、推奨、処理に関する説明を提供していません [76]。 0.77
This limitation has been a central motivation for developing Explainable Artificial Intelligence (XAI), which proposes to make algorithms explainable by “making [their] functioning clear and easy to understand” [3]. この制限は、説明可能な人工知能(xai)を開発するための中心的な動機であり、アルゴリズムを“明確で理解しやすい機能を作ること”によって説明可能にすることを提案している。 0.70
In the context of algorithmic decision-making, XAI creates models whose behavior can be easily understood (i.e., those that are transparent) or that can explain their behavior after a decision (e g , by providing post-hoc explanations). アルゴリズムによる意思決定の文脈において、XAIは、行動を容易に理解できるモデル(すなわち、透明性のあるモデル)を作成し、決定後(例えば、ポストホックな説明を提供することで)その行動を説明する。
訳抜け防止モード: アルゴリズム決定の文脈で - 意思決定において、XAIは振舞いを持つモデルを作成する 容易に理解できる(つまり透明なもの) 決定後の行動(例えば ポスト – ホックな説明を提供することによって)。
0.79
Calls for XAI have become widespread in industry, academia, and policymaking [48]. XAIの要請は、産業、アカデミア、政策立案などに広まっている[48]。 0.63
The XAI field aims to create systems that facilitate attributing responsibility to human agents involved in their development and deployment. XAIの分野は、開発と展開に関わる人間のエージェントに責任を負わせるシステムを作ることを目指している。 0.70
Assigning responsibility for algorithmic decisions has been widely debated to be a difficult task due to the existence of a responsibility gap [4, 69]. アルゴリズム的意思決定に対する責任の割り当ては,責任ギャップ(4,69])の存在から,難しい課題であると広く議論されている。 0.78
As argued by Robbins [81], explainable systems would maintain meaningful human control, allowing responsibility to be traced back to designers,2 users, and patients (i.e., those subjected to algorithmic decision-making). Robbins [81] が主張したように、説明可能なシステムは有意義な人間の制御を維持し、デザイナー、2人のユーザー、そして患者(すなわちアルゴリズムによる意思決定の対象)に責任を遡ることができる。 0.68
That is not to say that XAI is only put forward to deal with responsibility issues. これは、XAIが責任問題に対処するのみであるという意味ではない。 0.85
Explanations can, for instance, also be used to comply with legal requirements, promote trust in decision-making algorithms, and assess their accuracy [57]. 説明は、例えば、法的要件に従って、意思決定アルゴリズムへの信頼を促進し、その正確性を評価するためにも使用できます [57]。 0.73
We argue in this paper that XAI is not a panacea to the plethora of responsibility issues that autonomous decisionmaking algorithms entail. この論文では、XAIは自律的な意思決定アルゴリズムが抱える多くの責任問題のパナセアではないと論じる。 0.70
We focus our discussion on AI systems that are designed to make consequential decisions and can provide explanations afterwards, i.e., algorithms that are explainable in a post-hoc manner. 我々は,連続的な決定を下すように設計されたAIシステムに注目し,その後の説明,すなわちポストホックな方法で説明可能なアルゴリズムを提供する。 0.69
While we agree that explainable systems are necessary for the responsible deployment of algorithmic decision-making, we show how XAI’s post-hoc explanations may be at odds with the public’s understanding of AI systems’ agency and blameworthiness. 私たちは、アルゴリズムによる意思決定の責任を負うために、説明可能なシステムが不可欠であることに同意しますが、XAIのポストホックな説明が、AIシステムのエージェンシーと責任に対する大衆の理解と矛盾している可能性を示しています。 0.62
Furthermore, we discuss how those who are subjected to algorithmic decisions (i.e., patients) may be perceived as having meaningful human control over XAI systems and illustrate how this impression is false and does not translate to true empowerment over algorithms. さらに,xaiシステムに対する有意義な人間的制御がアルゴリズム的意思決定(すなわち患者)にどのように影響するかを議論し,この印象がいかに虚偽であり,アルゴリズムよりも真のエンパワーメントに翻訳されないかを説明する。 0.77
Considering blame as a response to the reasons upon which an agent has acted [86], post-hoc explainable algorithms may be perceived as actors that can explain the reasons behind their decisions and thus as blameworthy. エージェントが [86] 行動した理由に対する責任を考慮すると、ポストホックな説明可能なアルゴリズムは、その決定の背景にある理由を説明できるアクターとして認識され、それによって非難に値する。 0.67
Explainable AI systems may also be viewed as more capable and intentional than their opaque counterparts, resulting in higher levels of blame [63, 64]. 説明可能なAIシステムは、不透明なシステムよりも有能で意図的なものと見なすこともできる。
訳抜け防止モード: 説明可能なAIシステムは、不透明なシステムよりも有能で意図的なものと見なすこともできる。 その結果 非難のレベルが高くなります [63, 64]
0.61
This impression obscures the responsibility of human agents in algorithmic decision-making and shifts laypeople’s moral judgments towards machines, potentially influencing policymakers and hindering the adoption of beneficial AI technologies [11, 19]. この印象は、アルゴリズムによる意思決定における人間のエージェントの責任を曖昧にし、平民の道徳的判断を機械にシフトさせ、政策立案者に影響を与える可能性があり、有益なAI技術の導入を妨げる[11, 19]。 0.57
Motivated by the concern that developers could launder their agency for the deployment of autonomous systems [82] and implement superficial ethical measures to avoid regulation [38], we show how they could use XAI to create a false sense of understanding and control for patients. 開発者が自律システムの展開のために機関を洗浄し,規制を回避するための表面的倫理的措置を実施できるのではないか,という懸念から,XAIを用いて患者に対する理解とコントロールの誤った感覚を創出する方法が示された。 0.73
We illustrate this misleading impression with research showing that algorithmic explanations are often nonsensical and leave individuals with no real control [83]. この誤解を招く印象を,アルゴリズム的説明がしばしば非意味的であり,実効的な制御を持たない個人を残していることを示す [83] 。 0.60
XAI systems can also be used to deceive patients, even those trained in AI-related areas [33], creating moral and legal scapegoats. XAIシステムは、AI関連の分野で訓練された人々でさえも、患者を欺くためにも使用できる。 0.60
By illustrating how the responsibility for explainable systems might be blurred, we contribute to the literature by analyzing the responsibility gap posed by autonomous systems with a novel and critical perspective on the XAI field. 説明可能なシステムに対する責任のぼやけ方を説明することで,xai分野における新たな批判的な視点を持つ自律型システムによって生じる責任ギャップを分析し,文献に寄与する。 0.75
We conclude with a call for interpretable systems, which would emphasize developers’ responsibilities throughout the 私たちは、解釈可能なシステムを呼び出して、開発者全体の責任を強調します。 0.63
1We use AI systems and decision-making algorithms interchangeably. 1AIシステムと意思決定アルゴリズムを相互に使用する。 0.66
This is in line with the Explainable AI (XAI) literature. これは、説明可能なAI(XAI)文学と一致する。 0.75
We note that most decision-making algorithms would be labeled as AI systems regardless of their complexity or autonomy. ほとんどの意思決定アルゴリズムは、複雑さや自律性に関わらず、AIシステムとしてラベル付けされるでしょう。 0.64
2We refer to developers and designers as the collective agents that encompass programmers, executives, and any other entity involved in the design and development of decision-making algorithms. 2 開発者とデザイナを,意思決定アルゴリズムの設計と開発に関わるプログラマ,エグゼクティブ,その他のエンティティを含む集合エージェントとして言及する。 0.79
More specifically, we turn our attention to corporations that may develop decision-making algorithms. 具体的には、意思決定アルゴリズムを開発する企業に注目します。 0.64
2 2 0.42
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
development and deployment of decision-making algorithms. 意思決定アルゴリズムの開発と展開。 0.77
Finally, we discuss how current regulatory approaches fail to address the conflict between explainability and responsibility and offer potential solutions. 最後に、現在の規制アプローチが説明可能性と責任の対立にどう対処できないかについて議論し、潜在的な解決策を提供する。
訳抜け防止モード: 最後に どのようにして 現在の規制アプローチは説明可能性と責任の対立に対処できず、潜在的な解決策を提供する。
0.55
2 BACKGROUND 2.1 Explainable AI Algorithms are used to assist human judges in bail decisions [2], decide which patients should be prioritized for medical assistance [75], evaluate job applicants [8], and in many other applications. 2 背景 2.1 説明可能なaiアルゴリズムは、人間の裁判官が保釈判断を行うのを助けるために使用されます [2] 、医療援助のためにどの患者を優先すべきかを決定する [75] 、求職者を評価する [8] など、多くの応用において。
訳抜け防止モード: 2 BACKGROUND 2.1 Explainable AI Algorithms are used to help human judges in bail decision [2 ] 医療支援のために 患者を優先すべきかどうか 決める[75]。 求職者[8]と他の多くのアプリケーションで評価します。
0.85
Algorithmic decision-making has become widespread in society, and much research has been devoted to understanding its benefits and drawbacks. アルゴリズムによる意思決定は社会に広まり、その利点と欠点を理解するために多くの研究が費やされてきた。 0.69
A common criticism of most models used for making these life-changing decisions is that they are inscrutable black boxes [87]. 人生を変える決定を下すために使われるほとんどのモデルに対する一般的な批判は、それらは不可解なブラックボックス[87]である。 0.66
Users, patients, and even designers do not understand how algorithms make decisions, making it impossible to backtrack their decision-making process. ユーザー、患者、デザイナーでさえ、アルゴリズムがどのように意思決定を行うかを理解しておらず、意思決定プロセスのバックトラックが不可能である。
訳抜け防止モード: ユーザーも患者もデザイナーも理解できない アルゴリズムは決定を下します 意思決定をバックトラックすることは不可能です。
0.68
The widespread use of consequential decision-making algorithms has made understanding how they work necessary. 逐次決定アルゴリズムの普及により、どのように機能するかが理解されるようになった。 0.49
Explainable Artificial Intelligence (XAI), a field committed to increasing people’s understanding of decision-making algorithms, arose from this need. 説明可能な人工知能(XAI)は、意思決定アルゴリズムに対する人々の理解を高めるための分野であり、このニーズから生まれた。 0.78
As defined by Arrieta et al [3], an explainable system is “one that produces details or reasons to make its functioning clear or easy to understand” for a specific audience, be it users, designers, patients, or policymakers. Arrieta氏らによって定義されているように、説明可能なシステムは、“ユーザ、デザイナ、患者、あるいは政策立案者など、特定のオーディエンスに対して、その機能を明確または容易に理解するための詳細や理由を生成する”ものだ。 0.68
Efforts to develop explainable systems are often categorized into two groups: they either propose transparent models or build techniques to assist black box models to explain their behavior after a decision (referred to as post-hoc explainability) [61]. 説明可能なシステムを開発するための取り組みは、透明なモデルを提案するか、決定後の行動を説明するブラックボックスモデルを支援する技術を構築するかの2つのグループに分類される。 0.73
Algorithms are transparent when a human can simulate its functioning (i.e., the model is simulatable), explain each part of the model (decomposable), and follow its decision-making process. アルゴリズムは、人間がその機能をシミュレートできるとき(つまり、モデルはシミュラブルである)、モデルのそれぞれの部分(分解可能)を説明し、決定プロセスに従うときに透明である。 0.77
Post-hoc explainability, on the other hand, is supported by strategies and models that explain decisions for any given input. 一方、ポストホックな説明可能性は、任意の入力に対する決定を説明する戦略やモデルによってサポートされている。 0.52
A linear regression is a typical example of a transparent model. 線形回帰は透明なモデルの典型的な例である。 0.83
Variables can be human-readable, and people can simulate the model if it is not unnecessarily complex. 変数は可読性があり、必要以上に複雑でなければモデルをシミュレートすることができる。 0.74
There are countless examples of post-hoc explainability, including techniques for simplifying an algorithm’s specific decision (e g , LIME [80]), creating human-understandable visualizations (e g , [88]), and presenting counterfactual examples (e g , [104]). アルゴリズムの特定の決定を単純化する手法(例:lime [80])、人間の理解可能な視覚化(例: [88])の作成、偽の例(例: [104])など、ホック後の説明可能性の例は数え切れないほどある。
訳抜け防止モード: ポストホックな説明可能性の例は数え切れないほどある。 アルゴリズムの特定の決定(例えば LIME [ 80 ] )を単純化する 人間 - 理解可能な可視化(例えば [ 88 ])を作成する そして、反実例(eg, [ 104 ] )を提示します。
0.82
Post-hoc explanations present extra information, such as which feature of an input had the greatest impact on the final decision or similar examples that might have resulted in a different determination (i.e., a counterfactual). ポストホックな説明には、入力のどの特徴が最終決定に最も影響を与えたか、あるいは異なる決定(すなわち、反事実)をもたらすような類似の例など、追加の情報が含まれる。 0.70
This paper focuses on post-hoc explanations and how they may conflict with accountability. 本稿では、ポストホックな説明と、それらが説明責任とどのように対立するかに焦点を当てる。 0.41
2.2 Widespread Calls for Explainable AI In a study of the global guidelines referring to the ethics of AI, Jobin et al [48] found explainability (and similar notions like transparency) to be the most prominent principle across the efforts to promote the responsible development and deployment of AI. 2.2 説明可能なAIのためのワイドスプレッドコール AIの倫理に言及した世界的なガイドラインの研究において、Jobin氏ら[48]は、AIの責任ある開発と展開を促進する努力の中で、説明可能性(および透明性のような類似した概念)が最も顕著な原則であることを示した。
訳抜け防止モード: 2.2 説明可能なAIのためのワイドスプレッドコール AIの倫理に言及したグローバルガイドラインの研究(II) Jobin氏ら[48]は説明可能性(および透明性のような類似した概念)を発見した。 AIの責任ある開発と展開を促進する努力の中で最も重要な原則である。
0.77
Although not restricted to algorithmic decision-making, several guidelines proposed explainability for this specific context [25, 39]. アルゴリズムによる意思決定に限らないが、いくつかのガイドラインがこの特定の文脈 [25, 39] の説明可能性を提案した。 0.54
Industry leaders have also called for research in the field of XAI. 産業指導者は、XAIの分野の研究も求めている。 0.70
For instance, Microsoft’s CEO Satya Nadella defended the use of transparent systems, “AI must be transparent. [...] People should have an understanding of how the technology sees and analyzes the world” [73]. 例えば、MicrosoftのCEOであるSatya Nadella氏は、透明なシステムの使用を擁護している。“AIは透明でなければならない。[...] テクノロジーがどのように世界を見、分析しているかを理解する必要がある”[73]。
訳抜け防止モード: たとえばMicrosoftのCEO Satya Nadellaは、透明なシステムの使用を擁護した。 AIは透明でなければならない。[...] テクノロジーがどのように世界を見るかを理解し、分析しなくてはならない。” [73 ]
0.83
Researchers have also observed an exponential increase in the number of articles addressing XAI being published in academic venues in the last few years [3], demonstrating the role of academia in the development of explainable algorithms. 研究者はまた、過去数年間に学術施設で発行されているxaiに関する記事数の増加を指数関数的に観察しており、説明可能なアルゴリズムの開発におけるアカデミアの役割を実証している。 0.73
Scholars have argued for explainable systems based on a variety of premises. 学者は様々な前提に基づく説明可能なシステムについて論じてきた。 0.68
Felzmann et al [1] justified the research agenda to promote the acceptance of AI systems. Felzmann et al [1] はAIシステムの受容を促進するための研究課題を正当化した。 0.67
Mittelstadt et al [72] defended explainability as a form of promoting Mittelstadt et al[72]は宣伝の手段として説明責任を擁護した 0.62
3 3 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al trust and verification in algorithmic decision-making. limaなど。 アルゴリズム意思決定における信頼と検証。 0.60
Burrell [18] argued in favor of explainable systems as a form of assessing fairness. Burrell [18]は公正性を評価する手段として説明可能なシステムを支持した。 0.67
Systems that are understandable for stakeholders could also contribute to their privacy [3]. ステークホルダーにとって理解できるシステムは、プライバシにも貢献できます[3]。 0.61
The development of XAI has also been motivated by legal requirements [10]. XAIの開発も法的要件[10]によって動機付けられています。 0.72
Existing laws, such as those granting consumers access to their credit score, require algorithms to explain their decisions [87]. 消費者が信用スコアにアクセスできるような既存の法律では、意思決定をアルゴリズムで説明する必要がある[87]。 0.66
The “right to explanation” included in the European General Data Protection Regulation (GDPR) is a good example of how politicians could enforce explainability [42]. 欧州一般データ保護規則(GDPR)に含まれる「説明権」は、政治家が説明可能性(42)を強制する方法の好例である。 0.77
While interpretations of the law are yet to take place in courts, GDPR seems to entitle patients the right to ask for explanations concerning the logic used by algorithms that make consequential decisions [87]. 法律の解釈はまだ裁判所で行われていないが、GDPRは、連続的な決定を行うアルゴリズムが使用するロジックに関する説明を求める権利を患者に与えているようだ [87]。 0.78
Although the introduction to XAI presented above portrays it as a panacea to the opacity posed by algorithmic decision-making, the field has also been subjected to serious criticism. 上記のxaiの導入はアルゴリズム的意思決定による不透明さに対するパナセとして描かれるが、この分野も深刻な批判の対象となっている。 0.63
Scholars have raised concerns about how explainable systems may give designers unwarranted control over the information that patients and users receive [9]. 研究者は、説明可能なシステムによって、デザイナーが患者やユーザーが[9]を受け取る情報を不当に制御できるのではないかという懸念を提起している。
訳抜け防止モード: 学者はどのように懸念を提起したか 説明可能なシステムによって、デザイナーは患者やユーザーが受け取る情報を不当に制御することができる。
0.62
Kasirzadeh and Smart [52] criticized counterfactuals as an appropriate approach to XAI as it might require incoherent social theories, e g , by disregarding that some social categories are immutable. Kasirzadeh と Smart [52] は、いくつかの社会的カテゴリーが不変であることを無視して、不合理な社会理論を必要とするかもしれないとして、XAI に対する適切なアプローチとして反事実を批判した。 0.52
De Laat [28] argued that full transparency should be avoided due to potential negative consequences, such as loss of privacy. De Laat [28]は、プライバシーの喪失のような潜在的なネガティブな結果のために、完全な透明性は避けるべきであると主張した。 0.56
Robbins [81] showed that requiring explainability of all AI systems is misguided and suggested that a principle of explainability should be connected to specific decisions rather than the technology. Robbins氏[81]は、すべてのAIシステムの説明可能性の必要性が誤解されていることを示し、説明可能性の原則は技術よりも特定の決定に結びつくべきだと示唆した。
訳抜け防止モード: Robbins [81 ]によると、すべてのAIシステムの説明責任は誤認されている 説明可能性の原則は技術よりも特定の決定と結びつくべきだと提案しました。
0.69
Building upon this previous work, our novel critique of XAI relies on its conflict with one issue it seeks to solve: the responsibility gap posed by autonomous systems. この前の研究に基づいて、我々のxaiに対する新しい批判は、解決しようとする1つの問題、すなわち自律システムによって引き起こされる責任のギャップとの対立に依存している。 0.54
Scholars defend that XAI contributes to the report of an algorithm’s negative impacts and auditability [3]. 研究者は、XAIがアルゴリズムのネガティブな影響と監査可能性の報告に寄与していると擁護する[3]。
訳抜け防止モード: XAIがアルゴリズムのネガティブな影響の報告に寄与していると専門家が主張 監査性[3 ]。
0.73
Explainability has often been framed as a necessary condition for accountable AI systems (e g , [70]). 説明可能性はしばしば説明可能なAIシステム(例: [70])に必要な条件として考えられている。 0.71
Similarly, Robbins [81] argued that explainable systems are primarily for maintaining meaningful human control and responsibility. 同様に、robbins [81] は、説明可能なシステムは、主に有意義な人間の制御と責任を維持するためであると主張した。 0.52
Before delving deeper into how XAI could clash with accountability, we introduce the notion of the responsibility gap and how scholars have addressed it below. XAIが説明責任とどのように衝突するかを深く掘り下げる前に、我々は責任ギャップの概念と、それに対する学者の対応方法を紹介した。 0.59
2.3 Responsibility Gaps Algorithms decide who is automatically enrolled in health care programs [75] and determine which job opportunities are shown online to job seekers [27]. 2.3 責任ギャップ アルゴリズムは、医療プログラムに誰が自動的に登録されているかを決定します [75]。
訳抜け防止モード: 2.3 Responsibility Gaps Algorithms determine Who are registered in Healthcare Program [75 ] どの仕事の機会を 求職者にはオンラインで表示されます [27]
0.84
If these systems are found to discriminate against a certain social group, who should be held responsible for any harm caused by this decision? もしこれらのシステムが特定の社会集団に対して差別されていると判断されたら、この決定によって引き起こされる損害に対して誰が責任を負うべきだろうか?
訳抜け防止モード: これらのシステムが特定の社会集団に対して差別的であると判明すれば、 誰が責任を負うべきでしょうか?
0.79
One may claim that the designers should have foreseen this risk during the development phase, thereby making them responsible. 設計者は開発段階でこのリスクを予知し、責任を負うべきだと主張するかもしれません。 0.72
Another possibility is to hold those who use these systems accountable for their decision to use algorithms in the real world. もう1つの可能性は、これらのシステムを使用する人たちに、現実世界でアルゴリズムを使用する決定責任を負わせることだ。 0.59
Because these algorithms examine past data to make decisions, persons who are subjected to algorithmic decisions (i.e., patients) may be viewed as important actors who influenced the decision. これらのアルゴリズムは過去のデータを調べて意思決定を行うため、アルゴリズム上の決定を受ける人(つまり患者)は、決定に影響を及ぼす重要なアクターと見なすことができる。 0.76
The dilemma of which of these entities is an appropriate subject of responsibility arises for autonomous and adaptive algorithms (e g , AI systems), creating a responsibility gap. これらのエンティティのどれが責任の適切な主題であるかというジレンマは、自律的かつ適応的なアルゴリズム(例えばAIシステム)に対して生じ、責任ギャップを生み出す。
訳抜け防止モード: そのジレンマ これらの団体が 適切な責任を負うと 自律的かつ適応的なアルゴリズム(例えばAIシステム)のために発生する。 責任のギャップを生じさせます
0.78
The debate surrounding the responsibility gap was initiated by Matthias [69], who argued that autonomous and self-learning machines threaten the necessary conditions for holding someone responsible. 責任ギャップに関する議論はmatthias氏[69]によって開始され、自律型および自己学習型マシンは責任を持つ人を保持するために必要な条件を脅かすと主張した。 0.61
The degree of control that operators, users, and manufacturers have over a machine’s behavior is challenged by high levels of autonomy. オペレーター、ユーザ、そしてメーカーがマシンの振る舞いに対して持つコントロールの程度は、高いレベルの自律性によって挑戦される。 0.74
Any attempts to predict the behavior of systems built to constantly learn and adapt to new contexts are limited, conflicting with epistemic requirements for accountability. 新たなコンテキストを常に学び、適応するために構築されたシステムの振る舞いを予測する試みは限定的であり、説明責任に関するエピステマティックな要件と矛盾する。
訳抜け防止モード: 新しいコンテキストを常に学び、適応するために構築されたシステムの振る舞いを予測する試み 説明責任の欲求と矛盾しています
0.71
This lack of control and knowledge creates a responsibility gap, under which no one is a suitable subject of responsibility. このコントロールと知識の欠如は責任のギャップを生じさせ、その下では誰も責任の適切な主題ではない。
訳抜け防止モード: この制御と知識の欠如は責任ギャップを生じさせ、その下にある 誰も責任を負うには適さない
0.83
This gap refers to various aspects of responsibility, ranging from who is to blame (e g , blameworthiness) to who should be held accountable for algorithmic harm to the public (e g , public accountability) [30]. このギャップは、責任のさまざまな側面を指しており、責任(例えば、責任)を負う人から、アルゴリズムによる公共への害(例えば、公的説明責任)を負うべき人(30)まで、さまざまです。 0.72
4 4 0.42
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
2.4 Bridging the Responsibility Gap How may society bridge the responsibility gap? 2.4 責任ギャップを橋渡しする 社会は責任ギャップを橋渡しできるのか? 0.67
Some scholars argue that algorithms, no matter how intricate, autonomous, or self-learning, are just human tools [15]. 一部の学者は、アルゴリズムがいかに複雑で自律的で、自己学習であっても、単に人間のツールであると主張している [15]。 0.57
They contend that an algorithm’s behavior should be understood as a collection of its users’ and designers’ decisions and intentionality rather than as intentional actions per se [49]. アルゴリズムの振る舞いは,[49]ごとの意図的な行動ではなく,ユーザやデザイナの意思決定や意図の集合として理解されるべきである,と彼らは主張する。 0.74
These viewpoints maintain human agents as the subjects of responsibility for legal coherence [16]. これらの視点は、法的一貫性に対する責任の主題として人間のエージェントを保持します [16]。 0.60
Coeckelbergh [24] takes a different approach and proposes to ground responsibility on the patients of algorithms’ actions to circumvent the responsibility gap. coeckelbergh [24] は異なるアプローチを採用し、責任のギャップを回避するためにアルゴリズムの行動の患者に責任を負わせることを提案している。 0.72
This approach proposes that those who use and develop AI systems should take on forward-looking responsibilities by focusing on how algorithms could harm those subjected to it. このアプローチでは、AIシステムを使用し、開発する人は、その対象のアルゴリズムがどう影響するかに焦点を当てて、前向きな責任を負うべきである。
訳抜け防止モード: このアプローチでは、AIシステムの使用と開発を先導するべきだ、と提案する。 アルゴリズムが対象者を傷つける方法に焦点を合わせました
0.70
Champagne and Tonkens [21] present a similar proposal in the context of automated warfare, arguing that a “person of sufficiently high standing could accept responsibility for the actions of autonomous robotic devices.” Champagne と Tonkens [21] は、自動戦の文脈で同様の提案を提示し、「十分に高い地位の人物は、自律ロボットデバイスの動作に対して責任を負うことができる」と主張した。 0.72
This perspective appears to be the approach taken by some self-driving car manufacturers, who have pledged to bear responsibility for any accidents caused by their machines [55]. この視点は、一部の自動運転車メーカーが、マシンによって引き起こされた事故に対して責任を負うことを誓ったアプローチのようだ [55]。 0.80
Another approach for bridging the responsibility gap is to hold AI systems accountable. 責任ギャップを埋めるためのもうひとつのアプローチは、AIシステムが責任を負うことだ。 0.59
Stahl [93], for instance, claims that machines could be held (quasi-)responsible, fulfilling several social goals derived from moral responsibility. 例えば Stahl [93] は、機械は(ほぼ)責任があり、道徳的責任に由来するいくつかの社会的目標を達成できると主張している。
訳抜け防止モード: 例えば Stahl [ 93 ] は 機械は(準)責任を持ち、道徳的責任に由来するいくつかの社会的目標を達成することができる。
0.79
Coeckelbergh [23] discusses how AI systems could be held “virtually” responsible to the extent that they appear to be morally responsible. coeckelbergh [23]は、aiシステムが道徳的に責任を負う程度に“仮想的に”責任を負うことができる、と論じている。
訳抜け防止モード: Coeckelbergh [23 ] が議論 AIシステムは、道徳的に責任があるように見える程度に“事実上”責任を負うことができる。
0.79
These views are related to the proposal to extend legal personhood and responsibility to AI systems [43, 95]; yet, such a proposal has encountered much opposition [16, 91]. これらの見解は、法的パーソナリティと責任をaiシステム(43, 95])に拡張する提案に関連しているが、このような提案には多くの反対[16, 91]があった。 0.67
The proposal to hold algorithmic systems responsible has been controversial. アルゴリズムシステムの責任を負う提案は議論を呼んでいる。 0.70
Punishing an AI system, for instance, would be meaningless because it is incapable of suffering or carrying culpability [26, 92]. 例えば、AIシステムを摘発することは、苦痛を負ったり、卓越することができないため意味がないでしょう [26, 92]。 0.69
Others have argued that holding AI systems accountable requires metaphysical properties that existing actors lack, such as consciousness [46] and sentience [94]. 説明責任を持つAIシステムを保持するには、意識[46]や知覚[94]など、既存のアクターが欠落する形相学的特性が必要である、という意見もある。
訳抜け防止モード: 他の人々は aiシステムの説明責任を持つ 意識[46 ]と感覚[94 ]のような既存のアクターに欠けているメタフィジカルな特性を必要とする。
0.65
A less controversial view proposes to view AI systems as human-AI collaborations. 議論の少ない見解は、AIシステムを人間とAIのコラボレーションと見なすことである。 0.58
For instance, Nyholm [74] argues that machines’ agency should be viewed as a collaborative effort between them and human actors, in which the latter “initiate, supervise, and manage the agency” of the former. 例えば、nyholm [74] は、機械のエージェンシーは、前者の“エージェンシーの開始、監督、管理”を行う、彼らと人間のアクターの共同作業と見なされるべきであると主張している。 0.65
Such a viewpoint argues that humans should remain the locus of responsibility. そのような見解は、人間は責任の軌跡にとどまるべきであると主張する。 0.57
Another comparable view defends a form of joint responsibility, in which humans and autonomous algorithmic systems share responsibility [44, 45]. もうひとつは,人間と自律的なアルゴリズムシステムが責任を負う,共同責任の形式を擁護する,という考え方だ。 0.64
3 THE CONFLICT BETWEEN EXPLAINABILITY AND RESPONSIBILITY In this paper, we focus on XAI systems that make consequential decisions, such as those used in the medical [75], hiring [105], and financial [54] domains. 3【説明可能性と責任の対立】本稿では,医療[75],雇用[105],財務[54]ドメインで使用されるような,一連の意思決定を行うxaiシステムに焦点を当てる。 0.69
Despite the fact that most AI systems are designed to work alongside human decision-makers, algorithms may nonetheless operate as decision-makers in practice. ほとんどのAIシステムは人間の意思決定者と一緒に動作するように設計されているにもかかわらず、アルゴリズムは実際には意思決定者として機能する。 0.51
For instance, AI determines which job applications should be later evaluated by human employers, having a direct impact on employment prospects [105]. 例えば、AIは、後に人間の雇用主によって評価されるべき仕事のアプリケーションを決定し、雇用の見通しに直接影響を与える[105]。 0.71
These AI systems are often marketed as decision-making tools, influencing how they are used in the real world [54]. これらのAIシステムは、しばしば意思決定ツールとして売り出され、現実世界でどのように使われているかに影響を与える[54]。 0.57
The responsibility gap becomes significant in these scenarios because human decision-making is undermined or even dismissed, blurring human responsibility. 責任のギャップは、人間の意思決定が損なわれ、あるいは解雇され、人間の責任が曖昧になるため、これらのシナリオで重要になる。
訳抜け防止モード: これらのシナリオでは、責任ギャップが重要になります。 人的決定 - 人的責任を曖昧にし 人的責任を損なう
0.59
We argue that XAI poses a unique challenge and may contribute to the responsibility gap (see Figure 1 for a summary of the main arguments). xaiはユニークな課題であり、責任のギャップに寄与する可能性があると主張する(主な議論の要約は図1を参照)。 0.64
First, we show how AI systems that provide post-hoc explanations can be viewed as blameworthy agents, obscuring human responsibility. まず、ポストホックな説明を提供するAIシステムは、人間の責任を無視して、非難に値するエージェントと見なせるかを示す。 0.53
Second, we argue that explainable algorithms create the false impression that patients have meaningful human control, leading to incorrect attributions of responsibility. 第2に,説明可能なアルゴリズムは,患者が有意義な人的コントロールを持っているという誤った印象をもたらし,責任の帰属を誤ったものにする,と主張する。 0.58
Third, we 5 第3に 我々は 5 0.52
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al Fig. 1. limaなど。 図1。 0.39
Our main points are summarized in this diagram. 我々の主な点は、この図にまとめられている。 0.57
Decision-making algorithms that provide post-hoc explanations can be viewed as blameworthy agents that should be held accountable for their decisions; we explain how this perception can be explained by increased attributions of intentionality and capacity. ポストホックな説明を提供する意思決定アルゴリズムは、彼らの決定に責任を負うべき非難に値するエージェントと見なすことができる。
訳抜け防止モード: 意思決定 - ポスト・ホックな説明を提供するアルゴリズムの作成 責任を負うべき責任あるエージェントと見なすことができます。 この認識が意図性と能力の帰属の増加によってどのように説明できるかを説明する。
0.57
Explainable systems can also result in incorrect attributions of responsibility to those subjected to algorithmic decisions (i.e., patients). 説明可能なシステムは、アルゴリズム上の決定(すなわち患者)に責任の誤った帰属をもたらすこともある。 0.77
Explainable systems give the impression of confidence and empowerment, implying that patients should bear some responsibility. 説明可能なシステムは、自信とエンパワーメントの印象を与え、患者が何らかの責任を負うべきであることを暗示する。 0.54
This notion is incorrect and could be exploited by designers attempting to escape responsibility for algorithmic decision-making. この概念は誤りであり、アルゴリズムによる意思決定の責任を逃れようとする設計者によって悪用される可能性がある。 0.55
look at how designers’ control over XAI systems allows them to use algorithms and patients as scapegoats, escaping responsibility. XAIシステムに対するデザイナーのコントロールは、アルゴリズムと患者をスケープゴートとして利用し、責任を逃れることを可能にする。
訳抜け防止モード: XAIシステムに対するデザイナーのコントロールがいかにして アルゴリズムと患者をスケープゴートとして利用し 責任を逃れるのです
0.84
3.1 Explainable Systems as Responsible Agents What does it mean to blame someone? 3.1 責任あるエージェントとして説明可能なシステムは、誰かを責める意味があるのか? 0.55
Scanlon [86] has proposed a distinct interpretation of blame, in that judgments of blameworthiness are based on one’s assessment of others’ reasons behind their intentions and attitudes that go against the standards of their relationship, i.e., their “social contract.” Scanlon [86] は、責任感の判断は、その関係の基準、すなわち「社会的契約」に反する意図や態度の背後にある他人の理由を評価することに基づく、責任の明確な解釈を提案した。 0.64
To blame someone is to respond to this impairment by modifying one’s views on their relationship with the blamee. 誰かを責めるのは、非難者との関係について自分の見解を変えて、この障害に答えることである。
訳抜け防止モード: blame (複数形 blames) この障害に対応するために、非難者との関係に関する自分の見解を変更します。
0.65
Based on Scanlon’s interpretation, we suggest that decision-making algorithms may be deemed blameworthy if they appear to provide the reasons for their decisions. Scanlon氏の解釈に基づいて、意思決定アルゴリズムは、意思決定の理由を提供するように見えると、責められる可能性があることを示唆する。 0.69
When someone requests an explanation for an algorithmic decision, they expect to hear the reasons for that determination [31]. 誰かがアルゴリズム決定の説明を要求するとき、彼らはその決定の理由を聞くことを期待します [31]。 0.76
As a result, AI systems that can provide post-hoc explanations may be deemed blameworthy if their reasons go against what is expected from them. 結果として、ポストホックな説明を提供するAIシステムは、彼らの理由が彼らから期待されていることと逆らうと、責められるかもしれない。 0.58
It is worth noting that one of the issues covered by the responsibility gap is blameworthiness [30]. 責任のギャップがカバーする問題の1つが責任性[30]である点に注意が必要だ。 0.69
There is evidence that people blame AI systems and algorithms when they cause harm, regardless of their explainability. 説明可能性に関係なく、人々がaiシステムとアルゴリズムを害しているという証拠がある。 0.66
For instance, people blame algorithms when they make life-or-death decisions about who should live or die in a moral dilemma [66]. 例えば,道徳的ジレンマの中で誰が生きるべきか,死ぬべきかを,アルゴリズムが判断する,[66] というようなものだ。 0.66
Another study found that AI systems described as autonomous are blamed to a similar extent to human agents [41]. 別の研究によると、自律的なAIシステムは、人間のエージェント[41]と同様の程度に非難されている。
訳抜け防止モード: 別の研究では 自律的なAIシステムは、人間エージェント [41 ] と同様の程度に非難されている。
0.76
Research has also shown similar results in several scenarios, ranging from medicine [59] to autonomous vehicles [40]. 医学[59]から自動運転車[40]まで、いくつかのシナリオで同様の結果が示されている。 0.70
In the context of algorithmic decision-making, AI systems making bail decisions are blamed similarly to human judges [60]. アルゴリズムによる意思決定の文脈では、救済決定を行うaiシステムは人間の裁判官と同様に非難される [60]。 0.66
In this paper, we do not argue that explainability alone affects blameworthiness. 本稿では,説明可能性だけでは責任感に影響を及ぼさない。 0.64
Instead, we argue that explainable systems may be subjected to higher levels of blame, conflicting with its aim to trace responsibility back to human actors. 代わりに、説明可能なシステムはより高いレベルの責任を負う可能性があり、それは人間のアクターに責任を遡ることを目的としているのと矛盾する。
訳抜け防止モード: 代わりに、説明可能なシステムはより高いレベルの責任を負う可能性があると論じる。 責任を人間に遡る目的と矛盾しています
0.68
One possible criticism of the argument above is that blameworthiness does not encompass all notions of moral responsibility. 上記の議論に対する一つの考えられる批判は、非難性が道徳的責任のすべての概念を包含していないことである。
訳抜け防止モード: 上記の議論に対する批判の一つは 責任性は道徳的責任のすべての概念を包含しない。
0.72
Moral philosophers have highlighted the pluralistic component of moral responsibility (e g , [98]). 道徳哲学者は道徳的責任(例えば[98])の多元的要素を強調している。 0.73
For instance, Shoemaker [89] differentiates between three different notions of moral responsibility: attributability, 例えば、Shoemaker[89]は、道徳的責任という3つの異なる概念を区別する。 0.72
6 ExplainableDecision- MakingAlgorithmDecis ionPost-hocExplanati onReasons Behind DecisionUnderstandin gProvidesResponsibil ity TracingPatients (i.e., those subjected to decisions)MakesGives AboutToResponsibilit y? 6 自己決定・意思決定・説明・説明・説明・説明・説明・説明の背景 : 自己決定・説明責任患者(すなわち、決定対象者)が責任を問うか? 0.33
Responsibility? Leads toLeads toFalse Sense of ControlInsu(cid:31)c ient EmpowermentPerceived BlameworthinessAnswe rability-Responsibil ityPerceived Intentionality 責任? tofalse sense of controlinsu(cid:31)c ient empowermentperceived blameworthinessanswe rability-responsibil ityperceived intentality 0.53
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
answerability, and accountability. 答え可能性と説明責任です 0.59
While attributability does not seem to apply to AI systems because they rely on evaluations of an agent’s character, the latter two notions pose the same contradiction we defended above. 属性はエージェントの性格の評価に依存するため、AIシステムには当てはまらないように思われるが、後者の2つの概念は同じ矛盾を生じさせる。 0.69
First, Shoemaker defines responsibility-as-ac countability similarly to Scanlon’s blameworthiness, which we discussed above. まず、Shoemaker氏はScanlonの非難に類似した責任としての責任を定義します。 0.61
Second, Shoemaker poses that to be answerable relies on an agent’s ability to cite the reasons upon which their actions are grounded. 第二に、Shoemakerは、答えはエージェントの行動が根拠になっている理由を引用する能力に依存している、と言う。 0.64
Hence, AI systems that can explain the reasons behind their decisions could also be perceived as morally responsible with respect to answerability. したがって、彼らの決定の背後にある理由を説明できるaiシステムは、応答可能性に関して道徳的に責任があるとも考えられる。 0.61
We do not claim that XAI systems will be perceived as responsible according to all definitions of moral responsibility; nevertheless, this perception could obscure the moral responsibility of human agents in algorithmic decision-making. 我々は、xaiシステムが全ての道徳的責任の定義に従って責任を負うとは考えていないが、この認識はアルゴリズム的意思決定における人間のエージェントの道徳的責任を曖昧にする可能性がある。 0.64
Empirical evidence also supports the role of reasons in assigning blame and moral responsibility. 経験的証拠はまた、責任と道徳的責任を割り当てる理由の役割を支持する。 0.67
Blame can be mitigated if the agent has justifiable reasons; in contrast, blame can be increased if the agent bases their actions on improper or immoral reasons [64]. 対照的に、エージェントが不適切な理由または不道徳な理由に基づいて行動を起こすと、非難は増大する可能性がある [64]。 0.61
The perception of an agent acting upon reasons could lead to higher perceived intentionality. 理由に基づくエージェントの認識は、より高い意図性をもたらす可能性がある。 0.68
Beliefs and desires, which can be given as reasons for an action, are crucial components of the folk conception of intentionality [65]. 行動の理由として与えられる信念と欲望は,意図性という民俗概念の重要な構成要素である[65]。 0.73
Explainable algorithms’ decisions could be perceived as intentional, as suggested by prior research showing that humans adopt an intentional stance towards non-human entities [77] and robots [68]. 説明可能なアルゴリズムの決定は意図的だと見なすことができる。以前の研究で示唆されたように、人間は非人間の実体[77]とロボット[68]に対して意図的な姿勢をとっている。
訳抜け防止モード: 説明可能なアルゴリズムの判断は意図的なものと見なすことができる。 人間は非人間的存在[77]とロボット[68]に対して意図的な姿勢をとる。
0.73
Most crucially to our argument, prior work has shown the pivotal role of intentionality in judgments of blameworthiness [63]; if XAI systems are perceived as intentional, they are likely to be deemed blameworthy. 我々の主張に最も重要視されているのは、XAIシステムに意図的だと認識された場合、これらのシステムに責任を負う可能性がある、という判断において、事前の作業は、意図性の重要な役割を示した[63]。 0.49
Explainable AI systems could also be perceived as blameworthy without attributions of intentionality. 説明可能なAIシステムは、意図の帰属なしに非難に値すると見なすこともできる。 0.47
Malle et al. ’s theory of blame [64] proposes that agents who are perceived to have the capacity to prevent or contribute to an event are also attributed substantial levels of blame. マレとアル。 責任の理論 [64] は、事象を予防または寄与する能力を持っていると認識されているエージェントもまた、実質的な責任のレベルに起因していると提案している。
訳抜け防止モード: マレとアル。 責任論[64 ]は,そのエージェントを提案する 出来事を防ぐ、または貢献する能力を持っていると認識される また 相当なレベルの 責任を負っています。
0.61
People view XAI systems are largely capable, as evidenced by research showing that individuals overrely on algorithmic recommendations [7, 47], partly because they overtrust the explanations provided by these systems [6]. XAI のシステムには,アルゴリズム的勧告 [7, 47] に個人が過度に頼っていることを示す研究が示すように,XAI のシステムには大きな能力がある,という意見もある。 0.75
Explainable systems give the impression that they can make good decisions, and people blindly follow their decisions. 説明可能なシステムは、良い意思決定ができるという印象を与え、人々は盲目的に自分の決定に従う。 0.62
This sense of capacity can also result in heightened blame attributions. この能力の感覚は、責任感の高まりにも繋がる可能性がある。 0.52
All of the research presented thus far suggests that decision-making algorithms could be seen as morally responsible if they can explain their decisions. これまでに発表されたすべての研究は、意思決定アルゴリズムが彼らの決定を説明することができれば、道徳的に責任があると見なせることを示唆している。
訳抜け防止モード: これまでのすべての研究は、その決定を示唆している。 アルゴリズムを作り 彼らの決定を 説明できるなら 道徳的に責任がある
0.63
Therefore, people may hold explainable algorithms responsible for their decisions, even though they may not be appropriate subjects of responsibility [26, 46, 92, 94]. したがって、適切な責任を負わなくても、決定に責任を持つ説明可能なアルゴリズム(26,46,92,94)を保有することができる。
訳抜け防止モード: したがって、人々は自分の決定に責任を持つ説明可能なアルゴリズムを保持できる。 適切な責任を負わないとしても [26,46,92,94]
0.76
XAI aims to trace responsibility back to human agents, but it may instead shift responsibility to the algorithms it aims to explain. XAIは、責任を人間のエージェントに遡ることを目指しているが、代わりに説明しようとしているアルゴリズムに責任を移すかもしれない。 0.62
3.2 Patients as Responsible Agents The concept of meaningful human control was proposed as a crucial precondition for maintaining humans “in control, and thus morally responsible” for algorithmic decision-making [85]. 3.2 責任エージェントとしての患者 有意義な人的制御という概念は,アルゴリズムによる意思決定において,人間を「制御し,道徳的に責任を負う」ための重要な前提条件として提案された[85]。 0.67
Santoni de Sio and Van den Hoven [85] identified two necessary conditions for algorithms to remain under meaningful human control: tracking and tracing. Santoni de Sio と Van den Hoven [85] は、アルゴリズムが有意義な人間の制御下にとどまるために必要な2つの条件を特定した。 0.69
The tracking condition demands decision-making algorithms to track a human agent’s moral reasons relevant to the decision. 追跡条件は、決定に関連する人間のエージェントの道徳的理由を追跡するための意思決定アルゴリズムを要求する。 0.71
The tracing condition, on the other hand, requires that someone comprehend the algorithm’s capabilities as well as any of their real-world consequences. 一方、トレース条件では、誰かがアルゴリズムの能力と実際の結果を理解する必要がある。
訳抜け防止モード: 一方、トレース条件はそれを必要とします。 誰かがアルゴリズムの能力と実際の結果のどれかを理解しています。
0.63
We observe a conflict between the latter condition of tracing and XAI systems. 我々は,後者のトレース状態とXAIシステムとの衝突を観察する。 0.75
If algorithms are explainable in a post-hoc manner, it is expected that patients understand their decisions. もしアルゴリズムがポストホックな方法で説明できるなら、患者は自分の決定を理解することが期待される。 0.64
Explanations are designed to make algorithms explainable to a specific audience [3]. 説明はアルゴリズムを特定のオーディエンスに説明できるように設計されています [3]。 0.71
By design, post-hoc explainable AI aims to make an algorithm more understandable to patients, i.e., those interacting with them in a post-hoc manner. 設計上、ポストホックな説明可能なAIは、アルゴリズムをより理解しやすくすることを目的としている。
訳抜け防止モード: デザインとポスト-hoc explainsable aiが目指すもの 患者にとってより理解しやすいアルゴリズム、すなわちポストホックな方法で患者と相互作用するアルゴリズム。
0.81
These explanations may thus shift perceived control from designers to those who are subjected to algorithmic decision-making. これらの説明は、知覚的な制御をデザイナーからアルゴリズム的意思決定の対象に移す可能性がある。 0.61
Some of the methods presented by XAI researchers aim to empower the patients of algorithmic decision-making. XAI研究者が提示する手法のいくつかは、アルゴリズムによる意思決定の患者に力を与えることを目的としている。
訳抜け防止モード: XAI研究者が目指す方法 アルゴリズムによる意思決定の患者に力を与える。
0.69
For instance, Wachter et al [104] proposed counterfactual explanations as a form of putting the recipients of decisions made by algorithms “under control.” 例えば、Wachterら[104]は、アルゴリズムによる決定の受取人を「制御下」に配置する形で、反実的な説明を提案した。 0.68
They argued that explanations—and more specifically counterfactual explanations—help 彼らは、説明(特に反事実的な説明)が助けになると主張した 0.36
7 7 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al patients understand why particular decisions were made, empower them to contest decisions with which they disagree, and provide courses of action they can take to achieve a different result in the future. limaなど。 患者は、なぜ特定の決定がされたのかを理解し、同意できない決定に挑戦する権限を与え、将来異なる結果を達成するための行動コースを提供する。 0.62
It is worth noting that all of these goals are geared towards giving patients a better grasp of and control over an algorithm’s decision-making capabilities. これらの目標はすべて、患者のアルゴリズムの意思決定能力をよりよく把握し、コントロールすることを目的としている点に注意が必要だ。 0.73
These approaches seem to portray patients as satisfying the tracing condition of meaningful human control. これらのアプローチは、患者を有意義な人間の制御の追跡条件を満たすものと表現しているように見える。 0.55
However, is this sense of control meaningful? しかし、このコントロール感覚は意味があるのでしょうか? 0.69
Rudin [83] criticizes post-hoc explanations, claiming that current approaches could create a false sense of understanding among those subjected to algorithmic decision-making. Rudin [83] はポストホックな説明を批判し、現在のアプローチはアルゴリズムによる意思決定の対象となる人々の間に誤った理解をもたらす可能性があると主張した。 0.59
Rudin explains how saliency maps, which highlight the parts of an image that played a major role in a classification task, do not adequately describe how the model processes those parts identified as salient. rudin氏は、分類タスクにおいて重要な役割を担った画像の部分を強調するsaliency mapsが、モデルがどのようにしてsalientと識別された部分を処理するのかを適切に記述していないかを説明する。
訳抜け防止モード: ルディンがサリエンシマップの仕組みを解説 分類タスクで重要な役割を果たした画像の部分を強調します。 モデルがこれらの部品をどのように処理するかを適切に記述しないでください。
0.76
Instead, this type of explanation just provides a false sense of understanding. その代わり、この種の説明は単に誤った理解を与えるだけである。 0.72
Another example of how explanations could create a misleading sense of control is by giving explanations that are nonactionable [52]. 説明が誤解を招くようなコントロール感覚を生み出すもう1つの例は、動作不能な説明を与えることである [52]。 0.72
Algorithms that tell patients they were not granted a loan because they do not have enough collateral, for instance, do not provide them with useful information.3 患者にローンを許さないよう指示するアルゴリズムは、例えば、十分な担保書を持っていないため、有用な情報を提供していない。3 0.72
Although post-hoc explanations appear to empower patients by giving them control over decision-making algorithms, this empowerment is not meaningful. ポストホックな説明は、意思決定アルゴリズムをコントロールすることによって患者に力を与えるように見えるが、このエンパワーメントは意味がない。 0.48
Empirical research has also shown that patients misuse AI explanations, even when they have an AI-related background [32, 53]. 実証研究によると、患者はAI関連の背景がある場合でも、AIの説明を誤用していることが示されている[32, 53]。
訳抜け防止モード: 実証研究によっても 患者は、AIに関する背景 [32, 53 ] がある場合でも、AIの説明を誤用します。
0.68
Algorithmic explanations can potentially deceive individuals who receive them, both intentionally and unintentionally [33], tricking them into doing things without having their interests in mind. アルゴリズムによる説明は、意図的にも意図的にも、それらを受け取った個人を欺く可能性がある。
訳抜け防止モード: アルゴリズムによる説明は、意図的にも意図的にも、それらを受け取る個人を欺く可能性がある。 興味を念頭に置いて 物事を騙すのです
0.65
In conclusion, this sense of control and understanding is insufficient for grounding patients as responsible for algorithmic decision-making. 結論として、この制御と理解の感覚は、患者をアルゴリズムによる意思決定の責任とみなすには不十分である。
訳抜け防止モード: 結論として このコントロールと理解の感覚は 患者をアルゴリズム的意思決定の責任と位置づける - 意思決定。
0.75
We have suggested that algorithms and patients will be perceived as responsible for algorithmic decisions, but it is unclear whether this view has real-world implications. 我々は,アルゴリズムと患者がアルゴリズム決定に責任を負うと考えられることを示唆しているが,この視点が現実世界に影響を及ぼすかどうかは不明である。 0.67
Legal systems could choose to disregard the public opinion by holding developers accountable regardless of whom laypeople choose to blame or consider morally responsible for algorithmic harm, thus bridging the responsibility gap. 法制度は、誰が非難するか、道徳的にアルゴリズムの害に責任を負うかに関わらず、開発者を責任とすることで、世論を無視することができる。 0.61
However, doing so might hurt the adoption of possibly beneficial AI systems [11]. しかし、そうしたことは、潜在的に有益なAIシステムの採用を損なう可能性がある [11]。 0.59
Detaching legal responsibility from its folk conception might create a “law in the books,” which is unfamiliar to the people whose behavior legal systems aim to regulate [14]. 民法制度が[14]を規制しようとする人々にとって、法的な責任を民法の概念から外すことは、”本における法則”を生み出す可能性がある。 0.68
According to empirical studies, people’s reactions to algorithmic harm conflict with current legal systems [59] and adopting liability models that clash with laypeople’s views may hurt the adoption of autonomous vehicles [62]. 実証的な研究によると、アルゴリズムによる法律システムとの衝突に対する人々の反応 [59] と、在職者の見解と衝突する責任モデルの採用は、自動運転車の採用[62]を損なう可能性がある。 0.65
Sætra [84] has suggested that the responsibility issues posed by AI systems have inherent tradeoffs that should be assessed openly through political deliberation. Sætra [84]は、AIシステムによって引き起こされる責任問題は、政治的熟考を通じて公然と評価されるべき本質的にトレードオフがあることを示唆している。
訳抜け防止モード: Sætra [84 ] は AIシステムによって引き起こされる責任問題には、政治的熟考を通じて公然と評価されるべき固有のトレードオフがある。
0.59
Scholars have noted how laypeople’s risk perceptions impacted past regulation of emerging technologies, such as genetically modified organisms (GMOs), and it is expected that laypeople will influence how AI is regulated [19]. 研究者は、レイパーのリスク認識が、遺伝子組み換え生物(GMO)のような新興技術の過去の規制にどのように影響したかを指摘し、レイパーがAIの規制方法に影響を与えることが期待されている。
訳抜け防止モード: 学者はどのように言及したか 遺伝子組み換え生物(GMOs)など、先進的技術の過去の規制に影響を与えている。 そして、素人がAIの規制方法に影響を与えることが期待される[19]。
0.71
Policymakers should be aware of the possible backlash caused by policies that go against public expectations [5]. 政策立案者は、国民の期待に反する政策による反発の可能性を認識しなければならない。 0.69
In conclusion, people’s perceptions of who should be held responsible for algorithmic harm have real-world implications for the development, deployment, and regulation of decision-making algorithms. 結論として、誰がアルゴリズムによる危害の責任を負うべきかという人々の認識は、意思決定アルゴリズムの開発、展開、規制に現実世界的な影響を及ぼす。 0.66
3.3 Designers as Responsible Agents All the conflicts discussed above do not seem to pose a problem if designers take responsibility for the decisions made by AI systems. 3.3 責任のあるエージェントとしてのデザイナ 上記の紛争は、デザイナがAIシステムによる意思決定の責任を負う場合、問題にならないように思われる。
訳抜け防止モード: 3.3 責任を負うエージェントとしてのデザイナー 上記の紛争のすべて 問題を起こす デザイナーがAIシステムによる決定の責任を負うなら
0.81
Designers could take responsibility for whatever harm these systems may cause, regardless of whether they are explainable. 設計者は、説明できるかどうかに関わらず、これらのシステムによって引き起こされる可能性のある損害に対して責任を負うことができる。
訳抜け防止モード: 設計者は、これらのシステムが引き起こす害の責任を負うことができる。 説明できるかどうかに関わらず
0.71
Such an approach was proposed by Champagne and Tonkens in the context of automated warfare [21]. このようなアプローチはシャンパーニュとトンケンズによって自動戦の文脈で提案された[21]。 0.75
Even if human actors do not meet the necessary conditions for backward-looking attributions of responsibility, they can take proactive responsibility for future consequences. 人間の俳優が後向きの責任を負うために必要な条件を満たしていなくても、将来の結果に対して積極的な責任を負うことができる。 0.58
3Some research covers how actionable explanations could be created [51, 96, 101]; however, this field of inquiry still faces many challenges [102], such as how to evaluate explanations with patients or account for hidden features. 3S研究は, 行動可能な説明をいかに作成できるか(51, 96, 101]について論じるが, 患者の説明の仕方や隠れた特徴の説明など, 多くの課題に直面している [102] 。 0.74
8 8 0.42
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
van Wynsberghe [99] discussed a similar approach in the context of “responsible robotics.” van Wynsberghe氏[99]は、"責任のあるロボット工学"という文脈で、同様のアプローチを議論した。 0.61
While not directly related to algorithmic decision-making, their research emphasizes the importance of a framework that carefully considers the roles of all stakeholders throughout the development and deployment of autonomous agents. アルゴリズムによる意思決定とは直接関係はないが、彼らの研究は自律エージェントの開発と展開を通じてすべての利害関係者の役割を慎重に検討するフレームワークの重要性を強調している。 0.68
More crucially, their approach emphasizes the role of human agents in designing and deploying these systems, rather than considering algorithms (or robots) responsible. さらに重要なのは、アルゴリズム(あるいはロボット)の責任を考慮せず、システムの設計とデプロイにおいて人間のエージェントが果たす役割を強調することだ。 0.66
If algorithms are held responsible, they may serve only as liability shields [16]. アルゴリズムが責任を負うならば、それらは責任シールドとしてのみ機能します [16]。 0.69
In a similar vein, Johnson [49] argued that responsibility gaps will not arise from the technological aspects of AI systems but can only exist as a result of deliberate decisions. 同様にJohnson氏[49]は、責任ギャップはAIシステムの技術的側面から生じるものではなく、決定的な決定の結果のみ存在する、と主張した。 0.75
Such gaps will only emerge if humans developing and deploying AI systems fail to create systems that circumvent the responsibility gap, making the development of AI systems that designers can control and understand imperative. このようなギャップは、人間がaiシステムの開発とデプロイに失敗し、責任のギャップを回避し、設計者が命令をコントロールし理解できるaiシステムの開発に失敗した場合にのみ発生する。 0.60
3.4 Algorithms and Patients as Scapegoats We agree that designers should take responsibility for the decisions made by their algorithms and be held to account if something goes wrong. 3.4 アルゴリズムとScapegoatとしての患者 設計者はアルゴリズムによる決定の責任を負い、何か問題が発生した場合、考慮しなければならないことに合意します。 0.67
First, designers often have the most assets, placing them in the best position to compensate anyone who has been harmed by these systems and thus accomplishing the primary purpose of holding entities responsible under civil law [78]. 第一に、デザイナーは最も多くの資産を持ち、これらのシステムによって危害を受けた者を補償し、民法に基づいて責任を負うことを第一の目的とする最善の立場に置かれることが多い [78]。 0.68
Considering that designers will profit from the deployment of AI systems, they could ensure that those harmed are compensated [20]. デザイナーがaiシステムの展開から利益を得ると考えると、被害を受けた人たちの補償は20ドルになる。 0.65
Second, if designers are not held responsible, they may continue developing unsafe systems in pursuit of increased profits. 第二に、もし設計者が責任を負わなければ、利益の増加を追求して安全でないシステムを開発することになる。 0.60
Being able to hold someone responsible is critical for promoting cooperation by deterring selfish behavior [37]. 責任を負う者を持てることは、利己的な行動を妨げて協力を促進するのに重要である[37]。
訳抜け防止モード: 責任を負うことができる 利己的な行動を抑止して協力を促進するのに不可欠です[37]。
0.72
However, XAI systems could prove to be a tool for designers who willingly choose to shift perceived responsibility away from themselves. しかし、xaiシステムは、認識された責任を自分自身から切り離すことを積極的に選択するデザイナーにとって、ツールになる可能性がある。
訳抜け防止モード: しかし、XAIシステムは証明できる。 責任を自分自身から遠ざけることを 積極的に選択するデザイナーのためのツールです
0.75
As previously stated, laypeople’s perceptions of who is responsible have real ramifications for policymaking and the adoption of XAI systems. 前述したように、原住民の責任に対する認識は、政策立案やXAIシステムの導入に本当の影響を与えている。 0.60
Designers are unlikely to take responsibility for algorithmic decision-making to the extent that is necessary. 設計者は必要な範囲のアルゴリズム的意思決定の責任を負う可能性は低い。 0.80
Rubel et al [82] highlighted how “using algorithms to make decisions can allow [...] persons to distance themselves from morally suspect actions” by shifting the responsibility for a decision to the algorithm through agency laundering, as the authors call it. Rubelら[82]は、意思決定にアルゴリズムを使うことによって、決定の責任をエージェントの洗浄を通じてアルゴリズムにシフトさせることによって、人々が道徳的に疑わしい行為から距離を置くことができることを強調した。 0.78
The development of explainable decision-making algorithms creates a series of tools for designers to obscure their involvement and shift responsibility to the system itself. 説明可能な意思決定アルゴリズムの開発は、設計者が関与を曖昧にし、システム自体に責任を移すための一連のツールを作成する。
訳抜け防止モード: 説明可能な意思決定の展開- アルゴリズムを作り 一連のツールを作り デザイナーは関与を隠蔽し システム自体に責任を移すのです
0.80
Given that explainable algorithms may be viewed as morally responsible, designers could intentionally emphasize the algorithm’s role in the decision-making process. 説明可能なアルゴリズムは道徳的に責任があると見なされるので、デザイナは意思決定プロセスにおけるアルゴリズムの役割を意図的に強調することができる。 0.67
XAI systems could thus become apparent rational and intentional responsibility scapegoats. したがって、XAIシステムは明らかに合理的で意図的な責任のスケープゴートになる可能性がある。 0.44
It is worth noting that explainable decision-making algorithms can be seen as morally responsible regardless of their designers’ willingness to participate in agency laundering. 説明可能な意思決定アルゴリズムは、設計者が機関洗浄に参加する意思によらず、道徳的に責任があると見なせることは注目に値する。 0.61
Nonetheless, this conflict between accountability and explainability can be aggravated if designers choose to take advantage of this misleading perception. それでも、説明責任と説明責任の対立は、設計者がこの誤解を招くような認識を生かしてしまえば悪化する。 0.50
We have argued that some types of explanations, e g , counterfactuals, could shift perceived control of a decisionmaking algorithm from its designers to its patients. 我々は、いくつかの種類の説明、例えば反事実は、意思決定アルゴリズムの知覚制御を、その設計者から患者に移すことができると論じた。 0.69
Following the same argument presented above concerning agency laundering, designers could highlight the role of patients in the decision-making process to obscure their own responsibility. 上述のエージェンシー・ロンダリングに関する同じ議論に続いて、デザイナーは自分自身の責任を曖昧にする意思決定プロセスにおける患者の役割を強調することができる。 0.61
Design methods that apparently empower patients through explanations can shift perceived responsibility for harmful outcomes to those receiving the decisions and explanations. 説明を通じて明らかに患者を力づける設計手法は、有害な結果に対する認識された責任を、決定や説明を受ける人々に移すことができる。 0.61
Explainability gives designers an exceptional degree of power by allowing them to choose what kind of information is delivered as explanations to patients [8]. 説明可能性により、デザイナーは患者に説明としてどのような情報を届けるかを選択できる[8]。
訳抜け防止モード: 説明責任はデザイナーに並外れた力を与える 患者への説明として どのような情報を 提供できるかを選べます [8]
0.78
As a result, designers can prioritize their interests over the well-being of individuals on the other side of the decision-making process. その結果、デザイナーは意思決定プロセスの反対側の個人の幸福よりも自分の関心を優先することができる。 0.70
The concept of "dark patterns" in user interface design [13] exemplifies this power relation, in which designers can intentionally deceive users without their best interests in mind. ユーザインターフェース設計における"ダークパターン"の概念は,設計者が意識せずに意図的にユーザを欺くことができる,このパワー関係を実証している[13]。 0.85
These dark patterns can also be extended to XAI [33], shifting responsibility to patients. これらの暗いパターンはXAI[33]にも拡張でき、患者に責任を移す。 0.79
9 9 0.42
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al Explainability could also be used as a form of ethics washing. limaなど。 説明性は倫理的な洗濯の一種としても用いられる。 0.56
Explainable systems could be implemented as a superficial ethical measure to avoid necessary regulation [38]. 説明可能なシステムは、必要な規制を避けるための表面的倫理的措置として実施できる[38]。 0.67
Given the numerous legal requirements for explainability in decision-making [10], designers could develop explainable systems to promote self-regulatory efforts while obscuring the need for strict regulation. 意思決定における説明可能性に関する法的な要件が多々あることを踏まえると、デザイナーは厳格な規制の必要性を回避しつつ自己統制的努力を促進するための説明可能なシステムを開発することができる。
訳抜け防止モード: 意思決定における説明可能性に関する多くの法的要件 - 10]を作れ デザイナーは説明可能なシステムを self + -ly -厳格な規制の必要性を回避しつつ規制努力を行う。
0.60
The current efforts on AI ethics have been largely ineffective and vulnerable to industry manipulation [79]. ai倫理に対する現在の取り組みは、ほとんど効果がなく、産業の操作に弱い[79]。 0.67
Using XAI as a form of soft regulation may fail to encourage the responsible deployment of decisionmaking algorithms. XAIをソフトレギュレーションの形で使用すると、意思決定アルゴリズムの責任ある展開を奨励できない可能性がある。 0.67
We come back to the issue of self-regulation in Section 4.2, in which we defend hard regulation for AI systems. 我々は、AIシステムの厳しい規制を擁護するセクション4.2の自己規制の問題に再び着目する。 0.69
It is worth noting that we do not argue that designers should always be held solely responsible for the harms caused by decision-making algorithms. 設計者が常に意思決定アルゴリズムによって引き起こされる損害に対してのみ責任を負うべきであると主張するべきではないことに注意すべきである。 0.63
Other actors may also be responsible depending on the circumstances. 他の俳優も事情に応じて責任を負うことがある。 0.62
Instead, we demonstrated how designers’ power over XAI systems enables them to create the impression that algorithms and patients are to blame for harmful outcomes, impacting how policy decisions are made in the real world. その代わりに、XAIシステムに対するデザイナの力によって、アルゴリズムと患者が有害な結果の責任を負うという印象が生まれ、現実の世界における政策決定の仕方に影響を与えることを実証した。 0.68
As the famous saying goes: ”with great power there must also come—great responsibility. 有名人が言うように、“大きな力があれば、大きな責任も伴わなければならない”。 0.57
” The threshold for shifting responsibility away from designers may need to be higher to ensure they do not escape deserved responsibility. 責任をデザイナーから切り離すためのしきい値が高ければ、責任から逃れられないようにする必要があります。 0.66
The conflict presented in this paper can be exemplified by the burden of proof that lies with the victims of disparate treatment under US labor law. 本論文で提示される紛争は、米国労働法の下での異種治療の被害者に横たわる証拠の負担によって実証することができる。 0.69
Designing AI systems that apparently empower patients to prove discrimination through post-hoc explanations shifts responsibility to individuals who do not control or understand algorithmic decision-making. ポストホックな説明を通じて患者に差別を証明するaiシステムを設計することは、アルゴリズムによる意思決定を制御または理解していない個人に責任を移す。
訳抜け防止モード: ポストホックな説明を通じて患者に差別を証明するAIシステムの設計 責任を個人にシフトさせ アルゴリズムの決定を制御したり理解したりしない。
0.68
Although we have focused our discussion on the responsibility of patients and designers, another possible responsible actor is the user of decision-making algorithms. 患者とデザイナーの責任に関する議論に焦点を絞ったが、もう一つの責任を負う要因は意思決定アルゴリズムのユーザである。 0.67
For instance, users could compensate those harmed through the profits they derive from employing AI systems. 例えば、AIシステムを採用することで得られる利益を通じて、損害を補償することができる。 0.70
Interestingly, users remain in a position of both power over patients and subjugation to designers. 興味深いことに、ユーザーは患者に対する権力とデザイナーへの従属という立場にある。 0.67
While those who use decision-making algorithms can employ some of the tactics above to shift responsibility towards patients, they may also absorb responsibility from designers due to their proximity to possibly harmful algorithmic decisions [34]. 意思決定アルゴリズムを使う人は、上記の戦術のいくつかを使って患者に責任を移すことができますが、有害なアルゴリズム決定に近かったり、デザイナーの責任を吸収したりします [34]。 0.67
Future work could explore the responsibility of users vis-à-vis patients and designers. 将来的には、患者やデザイナーが責任を負うようになるだろう。 0.60
Nevertheless, the difficulty of delimiting the responsibility of distinct actors when machines cause harm calls for proactive approaches that remove any ambiguity, as we discuss below. それでも、機械に害を与えるときの異なるアクターの責任を減じることの難しさは、前述したように、曖昧さを取り除く積極的なアプローチを要求する。
訳抜け防止モード: それでも難しさは マシンが危害を及ぼすとき、異なるアクターの責任を損なう 以下に示すように、曖昧さを取り除くプロアクティブなアプローチを要求します。
0.60
4 IMPLICATIONS The concerns raised above are mostly backward-looking, focusing on who bears responsibility for the negative consequences of algorithmic decision-making. アルゴリズムによる意思決定のネガティブな結果に対して誰が責任を負うかに焦点が当てられている。 0.52
Responsibility, on the other hand, is not necessarily backward-looking. 一方、責任は必ずしも逆向きであるとは限らない。 0.64
It can also be forward-looking, emphasizing that individuals should act proactively and responsibly to the best of their abilities to ensure that future outcomes are positive [98]. 将来的な成果が肯定的であることを確実にするために、個人が積極的に行動し、最高の能力に責任を負うべきだ、と強調するのも前向きです [98]。
訳抜け防止モード: 前進も可能。 見て 個人は自分の能力の最大限に積極的に責任を持って行動すべきだと強調する 将来の成果が良い[98]ことを保証するためです
0.64
Failure to attend to one’s forward-looking responsibilities could lead to the attribution of backward-looking responsibility [97]. 先見責任への参加の失敗は、後見責任の帰属につながる可能性がある[97]。 0.64
For instance, if an agent takes the responsibility (in a forward-looking manner) for ensuring that a decision-making algorithm does not discriminate against women, future audits that find this system to favor men make holding the agent responsible in a backward-looking manner appropriate (e g , by blaming or punishing them). 例えば、意思決定アルゴリズムが女性を差別しないことを保証するために、エージェントが(前向きに)責任を負う場合、男性を優先するこのシステムを見つける将来の監査は、エージェントを後方的な方法で保持する(例えば、彼らを非難したり罰したりすることで)。 0.75
Researchers have argued that concerns about responsibility gaps can be reduced or even eliminated if designers take responsibility for all stages of the development and deployment of decision-making algorithms [21, 50, 99]. 研究者は、意思決定アルゴリズム(21, 50, 99)の開発と展開のすべての段階にデザイナーが責任を負う場合、責任ギャップに関する懸念を減らしたり、排除したりできると主張している。 0.72
However, they overlook the possibility that explainable systems could become a tool that exacerbates these difficulties, particularly (but not exclusively) if designers use them to avoid backward-looking attributions of responsibility. しかし、説明可能なシステムがこれらの困難を悪化させるツールになる可能性を見落としており、特に設計者が責任の後方に見える帰属を避けるためにそれらを使用する場合(ただし排他的ではない)である。 0.55
Building upon previous literature proposing accountability frameworks, we discuss how these approaches could be used to mitigate the potential negative consequences of XAI systems. 従来の文献から説明責任フレームワークを提案する上で,これらのアプローチがXAIシステムの潜在的なネガティブな結果を軽減するためにどのように使用できるのかを論じる。 0.59
We build on previous suggestions by recommending concrete steps to ensure that responsibility is not wrongly shifted to patients and algorithms. 我々は、患者やアルゴリズムに誤って責任が移らないよう、具体的な手順を推奨することで、以前の提案に基づいている。
訳抜け防止モード: 我々は以前の提案に基づいて構築する 患者やアルゴリズムに 責任が悪用されないよう 具体的な手順を推奨する
0.77
10 10 0.42
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
4.1 Accountability for Algorithmic Decision-Making While accountability is frequently cited as a backward-looking notion of responsibility [98] and as a reaction to blameworthiness judgments [89], we now turn our attention to the literature defining accountability as a forwardlooking notion with potential backward-looking consequences. 4.1 責任の後方観 [98] として説明責任が引用される一方で,責任感 [89] に対する反応として,説明責任を後方観的な結果を伴う前方観として定義する文献に注目する。 0.73
One such example is Boven’s work [12], which defines accountability as the relationship between an actor and a forum under which the actor is obligated to explain and justify their behavior. そのような例の1つとして、ボベンの『12』があり、これは説明責任を俳優と、その俳優が自分の行動を説明し、正当化する義務を負うフォーラムの関係として定義している。
訳抜け防止モード: 例えば、Boven の著作[12 ]では、説明責任をアクターの関係として定義している。 フォーラムでは 俳優は自分の行動を 説明し正当化しなければなりません
0.71
The forum poses questions and judges the actor by imposing (backward-looking) consequences, such as punishment. フォーラムは質問を行い、罰のような結果(後ろ向き)を課すことで俳優を判断する。 0.60
This definition emphasizes the actor’s obligation to explain its conduct upon request, implying that actors have a forward-looking responsibility to respond to the forum. この定義は、要求に応じて行動を説明するアクターの義務を強調し、アクターがフォーラムに応答する前向きな責任を持つことを意味する。
訳抜け防止モード: この定義は俳優の義務を強調する 要求に応じてその行動を説明する アクターがフォーラムに応答する責任を負うことを暗示しています。
0.75
Nevertheless, if the forum deems it necessary, this requirement may lead to the imposition of backward-looking responsibilities. それにもかかわらず、フォーラムがそれを必要と判断すれば、この要件は後向きの責任を課すことになるかもしれない。 0.49
Several principles have been proposed to ensure this accountability relationship can be implemented. この説明責任関係を実現するために、いくつかの原則が提案されている。 0.50
One of these principles is traceability, which Kroll [56] advocates as a critical component in ensuring accountability for algorithmic systems. これらの原則の1つはトレーサビリティであり、Kroll [56] はアルゴリズムシステムの説明責任を保証する重要なコンポーネントであると主張している。 0.66
Traceability is defined as the requirements that should be satisfied so that an algorithm’s outputs can be “understood through the process by which [it] was designed and developed.” トレーサビリティ(Traceability)は、アルゴリズムのアウトプットが“それが設計され開発されるプロセスを通じて”理解されるように、満足すべき要件として定義される。 0.85
Kroll proposes a set of conditions (e g , transparency in the design process, reproducibility) and tools (e g , structured logs) to enable accountability. Kroll氏は、説明責任を可能にする一連の条件(設計プロセスにおける透明性、再現性)とツール(例えば、構造化ログ)を提案している。 0.66
This approach, however, does not propose a structured framework that designers can readily and explicitly use in the development process. しかしこのアプローチでは、設計者が開発プロセスで簡単に明示的に使用できる構造化フレームワークは提案されていない。 0.78
We build upon Cobbe et al ’s recent proposal of reviewability as a framework for ensuring accountability in algorithmic decision-making [22]. 我々は、アルゴリズムによる意思決定における説明責任を保証するためのフレームワークとして、Cobbe氏らによる最近のレビュー可能性の提案に基づいています [22]。
訳抜け防止モード: cobbeらによるreviewability as a frameworkに関する最近の提案に基づいています。 アルゴリズム決定における説明責任の確保 [22 ]。
0.75
Because algorithmic decision-making incorporates several human and temporal components, the authors argue that it should not be viewed solely as a technology. アルゴリズムによる意思決定にはいくつかの人的・時間的要素が組み込まれているため、著者らは技術としてのみ見なすべきではないと主張している。
訳抜け防止モード: アルゴリズムによる決定 - 意思決定にはいくつかの人的および時間的要素が組み込まれている。 著者たちは 単に技術と見なすべきではありません
0.59
Instead, their proposal aims to understand algorithms making decisions as a broad socio-technical process. その代わりに、彼らの提案は、意思決定を行うアルゴリズムを幅広い社会技術プロセスとして理解することを目的としている。 0.46
Human designers, users, patients, and other stakeholders are involved in this process not just during development and deployment but also during conception, investigation, and all other intermediate steps. ヒューマンデザイナやユーザ,患者,その他のステークホルダは,開発やデプロイメントだけでなく,概念や調査,その他の中間的なステップにも関与しています。 0.76
The reviewability framework maintains accountability by recording “contextually appropriate information” throughout the entire socio-technical process of algorithmic decision-making. レビュー可能性フレームワークは、アルゴリズム的意思決定の社会技術的プロセス全体を通して「文脈的に適切な情報」を記録することによって説明責任を維持する。
訳抜け防止モード: reviewability framework による説明責任の維持 を、アルゴリズムによる意思決定の技術的プロセス全体を通して記録する。
0.72
Below, we explain each step of the framework in-depth and discuss how it could handle the conflict between accountability and explainability put forth in this paper. 以下に、フレームワークの各ステップについて詳しく説明し、本論文で述べられている説明責任と説明責任の相違をどう対処できるかを論じる。 0.63
4.1.1 Commissioning. The first step of the reviewability framework—called commissioning—addresses anything relevant prior to developing the decision-making algorithm. 4.1.1の委託。 コミッショニングと呼ばれるレビュー可能性フレームワークの第1ステップは、意思決定アルゴリズムの開発に先立って、関連するものをすべて解決する。 0.36
Cobbe et al [22] argues that this step should define the problem algorithmic decision-making aims to solve and how it will impact society and individuals. Cobbeら[22]は、このステップは、アルゴリズムによる意思決定が解決しようとしている問題と、それが社会や個人に与える影響を定義するべきであると主張している。
訳抜け防止モード: cobbe氏ら[22 ]は、このステップは問題アルゴリズム的決定を定義するべきだと主張している。 解決を目指す 社会や個人にどう影響するかです
0.60
In other words, commissioning refers to all initial human decisions that influence how the model will be developed and used. 言い換えれば、コミッショニングは、モデルの開発と使用に影響を与えるすべての初期の人間の決定を指す。 0.70
We argue that one additional and crucial question should be asked: is explainability necessary for the decision-making algorithm under commissioning? 我々は、追加的かつ重要な質問の一つを問うべきであると論じている。 意思決定アルゴリズムに説明可能性は必要か? 0.62
Robbins [81] questioned whether all algorithms, particularly those deployed in low-stakes scenarios, should be explainable and argued against it. Robbins氏[81]は、特にローテイクシナリオにデプロイされた全てのアルゴリズムが説明可能であるべきかどうか疑問を投げかけ、それに反対した。 0.57
We suggest that this inquiry should also examine whether the problem under consideration requires explainability in light of the responsibility issues discussed above. 本研究は,上記の責任問題に照らして,検討中の課題が説明可能性を必要とするかどうかについても検討すべきである。 0.62
We also propose that interpretable systems should be prioritized over those that give post-hoc explanations. また,ポストホックな説明をするシステムよりも解釈可能なシステムが優先されるべきである。 0.57
As discussed above, post-hoc explanations can lead to further problems concerning perceived responsibility and control. 上記のように、ポストホックな説明は、認識された責任と制御に関するさらなる問題につながる可能性がある。 0.53
In contrast, interpretable systems place a greater emphasis on the roles of designers in developing decision-making algorithms because these systems become explainable not only after deployment but also during the development process. 対照的に、解釈可能なシステムは、デプロイ後だけでなく、開発プロセス中にも説明可能であるため、意思決定アルゴリズムの開発においてデザイナの役割に重点を置いている。 0.63
If post-hoc explanations are necessary for a specific problem, designers should consider which types of explanations should be provided. 特定の問題にポストホックな説明が必要な場合、デザイナーはどの説明を提供するべきかを考える必要がある。 0.65
Explanations should not highlight the algorithm’s agentic role in the process, dealing 説明は、処理におけるアルゴリズムのエージェント的役割を強調してはならない 0.83
11 11 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al with people’s perception that AI systems should be held responsible. limaなど。 人々の認識では、AIシステムは責任を負わなければならない。 0.60
Furthermore, explainable algorithms should genuinely empower patients rather than instilling a false sense of confidence and control. さらに、説明可能なアルゴリズムは、信頼とコントロールの誤った感覚を注入するのではなく、患者に真に力を与えるべきである。
訳抜け防止モード: さらに、説明可能なアルゴリズムは患者に本当の力を与えるべきだ 信頼とコントロールの誤った感覚を 注入することです
0.67
4.1.2 Model Building. The second step of the reviewability framework focuses on the technical components of algorithmic decision-making. 4.1.2モデル。 レビュー可能性フレームワークの第2ステップは、アルゴリズムによる意思決定の技術的コンポーネントに焦点を当てている。 0.61
Cobbe et al [22] claims that maintaining accountability requires knowledge about how data is collected and pre-processed, how the model is trained and tested, and how and by whom relevant decisions are made. Cobbe氏ら[22]は、説明責任を維持するには、データの収集と事前処理、モデルのトレーニングとテスト、関連する決定の方法と方法に関する知識が必要であると主張している。 0.69
Considerations about XAI and responsibility are also important throughout the model building process. XAIと責任に関する考察は、モデル構築プロセス全体でも重要である。 0.79
Explainable systems may require different datasets and pre-processing. 説明可能なシステムは、異なるデータセットと前処理を必要とする。 0.52
Although some types of explanations do not require specific datasets or annotations (e g , feature importance explanations can be generated without additional data), others (e g , natural language explanations) may require specific data for training. ある種の説明は特定のデータセットやアノテーションを必要としないが(例えば、追加データなしで機能の重要性の説明を生成できる)、他の説明(例えば、自然言語の説明)は訓練のために特定のデータを必要とすることがある。 0.70
Datasets should be collected and pre-processed in ways that do not conflict with designers’ forward-looking responsibilities. データセットは、デザイナーの前方の責任と相反しない方法で収集され、事前処理されるべきである。 0.61
Model testing is one of the most important steps in the reviewability framework to avoid any conflict between XAI and responsibility. モデルテストは、XAIと責任の衝突を避けるために、レビュー可能性フレームワークにおいて最も重要なステップの1つです。
訳抜け防止モード: モデルテストは、レビュー可能性フレームワークにおける最も重要なステップの1つである XAIと責任の衝突を避ける。
0.72
Explainable systems should be tested rigorously with those who will use and be subjected to them once deployed. 説明可能なシステムは、一度デプロイされたら使用し、従属する人々と一緒に厳格にテストされるべきである。
訳抜け防止モード: 説明可能なシステムは、厳格にテストされるべきである 一度配備されると 利用され 服従されます
0.62
The benefits are numerous: understanding the stakeholders’ view (i.e., how they perceive explainable algorithms) assists designers to prevent AI systems from being regarded as rational and intentional, which could lead to the belief that they should be held responsible; studying how users and patients interact with these systems can prevent overreliance (as done in [17]) and a false sense of control over algorithmic decision-making; testing and improving explanations can ensure they are compatible with legal and social requirements. The benefits are numerous: understanding the stakeholders’ view (i.e., how they perceive explainable algorithms) assists designers to prevent AI systems from being regarded as rational and intentional, which could lead to the belief that they should be held responsible; studying how users and patients interact with these systems can prevent overreliance (as done in [17]) and a false sense of control over algorithmic decision-making; testing and improving explanations can ensure they are compatible with legal and social requirements.
訳抜け防止モード: 利害関係者の見解を理解すること(つまり、)。 彼らがどのように説明可能なアルゴリズムを知覚するか)は、AIシステムが合理的で意図的なものと見なされるのを防ぐデザイナーを支援する。 責任を負うべきだという信念につながります ユーザーや患者がシステムとどのように相互作用するか 過信を防ぐことができる([17 ]でなされるように) アルゴリズムの決定に対する誤った制御の感覚 - 意思決定; テスト 説明の改善は、法的および社会的要求に適合することを保証する。
0.66
To ensure that responsibility for algorithmic decision-making is distributed fairly, users and patients must be included in the validation of explainable systems. アルゴリズムによる意思決定の責任を公平に分配するためには、ユーザと患者を説明可能なシステムの検証に含めなければならない。 0.73
4.1.3 Deployment & Investigation. 4.1.3 展開調査 0.74
The final two steps of the reviewability framework encompass the operation of decision-making algorithms (e g , how systems are deployed, supported, and their consequences) and any subsequent investigative activity (e g , internal and external audits). レビュー容易性フレームワークの最後の2つのステップは、意思決定アルゴリズム(システムがどのようにデプロイされ、サポートされ、それらの結果)とその後の調査活動(内部監査や外部監査など)の運用に関するものだ。 0.74
Here, users and patients play a significant role since they are intimately involved in any potential outcomes. ここで、ユーザーと患者は潜在的な結果に密接に関わっているため、重要な役割を果たす。 0.72
As previously stated, these actors may also be held responsible for algorithmic decisions. 前述のように、これらのアクターはアルゴリズム決定の責任も負うことができる。 0.64
Designers, for instance, cannot stop users from using algorithms for nefarious purposes and should not be held liable if users use them for unforeseeable wrongful actions. 例えば、デザイナーは、ユーザーが不利な目的のためにアルゴリズムを使うのを止めることはできず、ユーザーが望ましくない不正な行動のためにそれを使用する場合、責任を負うべきではない。
訳抜け防止モード: たとえばデザイナーは、ユーザーが悪質な目的のためにアルゴリズムを使うことを防げない 保持すべきではありません 責任を負う 予期せぬ不正行為に使用する場合。
0.70
Patients may exploit explanations and abuse the system, which may be immoral or illegal. 患者は、不道徳または違法なシステムの説明や虐待を利用することができる。 0.70
Nevertheless, we highlight that explainable systems require particular attention concerning how responsibility should be distributed in both forward- and backward-looking manners. それでも、説明可能なシステムには、前向きと後向きの両方に責任を分散させる方法に関して、特に注意が必要である点を強調します。 0.47
The deployment of XAI should not delegate responsibilities that should have been considered in previous steps of the framework to users and patients. XAIの展開は、フレームワークの以前のステップで考慮すべき責任をユーザや患者に委譲するべきではない。 0.73
These actors do not have complete control over decision-making algorithms and their outputs, even if explainability aims to empower them. これらのアクターは、意思決定アルゴリズムとその出力を完全にコントロールしていない。
訳抜け防止モード: これらの俳優は決定を完全にコントロールしていない。 アルゴリズムとその出力を作り 説明責任は 彼らに力を与えることです
0.58
Responsibility for algorithmic decision-making should be assigned proactively during the initial steps of the accountability framework. アルゴリズムによる意思決定の責任は、説明責任フレームワークの最初の段階で積極的に割り当てられなければならない。 0.60
When the framework’s final steps come into play, the respective forward- and backward-looking responsibilities of designers, users, and patients should be explicit and obvious. フレームワークの最終ステップが実行されれば、設計者、ユーザ、および患者のそれぞれの前方および後方の責任は明確かつ明確になるべきです。 0.74
Such a clear division of responsibility should not be self-regulated without legally binding forces; instead, it should be codified into law. このような明確な責任区分は、法的拘束力なしでは自己統制されるべきではない。 0.58
4.2 The Necessity for Hard Regulation We have advocated for assigning forward-looking responsibilities to designers throughout this work to avoid the conflict between explainable and accountable algorithmic decision-making. 4.2 厳しい規制の必要性 この作業を通じて、説明可能なアルゴリズム決定と説明可能なアルゴリズム決定の対立を避けるために、先見的な責任をデザイナーに割り当てることを提唱してきた。 0.55
By emphasizing the prospective aspects of responsibility, designers can be held accountable for the harmful outcomes of decision-making algorithms, mitigating incorrect backward-looking attributions of responsibility to patients and algorithms. 責任の今後の側面を強調することで、デザイナは意思決定アルゴリズムの有害な結果に対して責任を負うことができ、患者やアルゴリズムに対する責任の誤った逆向きの属性を軽減できる。 0.62
This approach underlines the 12 このアプローチは 12 0.46
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
non-technical components of algorithmic design, particularly during the commissioning and testing steps of the accountability framework presented above. アルゴリズム設計の非技術的コンポーネント、特に上記の説明責任フレームワークのコミッショニングとテストのステップにおいて。 0.82
We have extensively discussed the literature questioning whether designers would take responsibility for their systems and argued that explainability might be used to escape responsibility. 我々は,設計者がシステムに対して責任を負うかどうかを問う文献を広く議論し,説明可能性によって責任を逃れることができると論じた。 0.66
This would be comparable to what Floridi called “ethics washing” [38], in which actors engage in allegedly ethical behavior to evade regulation. これは、フローリディが「倫理的な洗濯」([38])と呼んだものに匹敵するものであり、俳優は規制を回避するために倫理的な行動をとる。
訳抜け防止モード: これはフロリディが「倫理洗浄」と呼ぶもの[38]に匹敵する。 アクターが規制を回避するために 倫理的な行動をとる
0.60
What is needed to ensure that designers are held accountable for algorithmic decisions? 設計者がアルゴリズム決定の責任を負うために、何が必要か? 0.81
We contend that it is hard regulation. それは厳しい規制だと主張する。 0.63
Jobin et al [48] found explainability to be the most mentioned principle in a review of AI ethics guidelines and principles put forward by industry actors, policymakers, and academics. Jobin氏ら[48]は、業界アクター、政策立案者、学者らによるAI倫理ガイドラインと原則のレビューの中で、最も言及された原則である説明可能性を発見した。 0.57
There appears to be an overreliance on ethics to ensure that responsibility is not corrupted; however, principles alone cannot guarantee ethical AI [71]. 責任が損なわれないようにするための倫理に対する過度な信頼があるようだが、原則だけでは倫理的AIを保証できない[71]。 0.71
Ethics is not a substitute for hard regulation as it can be easily exploited by powerful actors and cannot ensure that principles are followed [79]. 倫理は、強力なアクターによって容易に利用でき、原則が従うことを保証できないため、厳しい規制の代用ではありません [79]。 0.65
Self-regulation and soft law appear to face similar problems. 自己規制とソフトな法則も同様の問題に直面しているように見える。 0.44
Government regulation proposals currently do not address the conflict between accountability and explainability. 現在、政府の規制提案は説明責任と説明責任の対立に対処していない。 0.51
The European Union (EU) AI Act, the most recent attempt to regulate AI systems, does not directly address any of the responsibility issues raised by autonomous machines. 欧州連合(EU)のAI法は、AIシステムを規制しようとする最も最近の試みであり、自律機械による責任問題に直接対処していない。 0.78
Although EU expert groups have proposed potential liability models for AI systems [35] and the EU Commission has debated revising product liability laws [36], the AI Act appears to allow designers to avoid liability rather than addressing how and when they will be held liable. EUの専門家グループは、AIシステムの潜在的な負債モデルを提案している [35] し、EU委員会は製品責任法を改正する[36] ことを議論している。
訳抜け防止モード: EUの専門家グループはAIシステムの潜在的な責任モデルを提案した [35] EU委員会は製品責任法の改正を議論している[36]。 AI法が現れる 責任を負う方法やタイミングに対処するのではなく、デザイナが責任を負うことを避ける。
0.73
The current proposal allows designers to “wash their hands” by adhering to local standards through self-assessment protocols. 現在の提案では、設計者は自己評価プロトコルを通じて、地元の標準に固執することで“手を洗う”ことができる。
訳抜け防止モード: 現在の提案では デザイナーは自己評価プロトコルを通じて地元の基準に固執することで“手を洗う”ことができる。
0.63
Most crucially, these local standards are susceptible to lobbying by private organizations. 最も重要なことは、これらの地方標準は民間団体のロビー活動に影響を受けやすいことである。 0.44
By complying with private-sector standards and meeting regulatory transparency requirements, designers could shift perceived responsibility for negative outcomes to patients, who lack the necessary understanding and control over algorithms. プライベート・セクターの基準に準拠し、規制の透明性要件を満たすことで、デザイナーは認識される責任を、アルゴリズムの理解と制御が欠如している患者に移すことができる。 0.61
This approach disregards the overwhelming power that designers have over XAI systems in comparison to other actors. このアプローチは、xaiシステムに対するデザイナーの圧倒的な力を無視している。 0.55
If responsibility frameworks are codified into law, designers will not be able to shift responsibility to other stakeholders or algorithms. 責任フレームワークが法律に体系化されている場合、設計者は責任を他の利害関係者やアルゴリズムに移すことはできない。 0.62
Elucidating which roles and obligations designers, users, and patients should have could help mitigate the problem of the former falsely empowering others to escape blame, punishment, and other forms of backward-looking responsibility. 設計者、使用者、患者の役割と義務を解明することは、前者が他人に非難や罰、その他の後ろ向きの責任から逃れるよう誤った権限を与えるという問題を緩和するのに役立つだろう。 0.56
Such a legal framework could even hold actors jointly liable if they fail to meet their obligations [103]. このような法的枠組みは、もし彼らの義務を満たせなければ、アクターが共同で責任を負うことさえある [103]。
訳抜け防止モード: このような法的枠組みは、俳優が共同で責任を負うことさえできる 彼らは義務を果たせません[103 ].
0.73
While it is beyond the scope of this paper to argue for a specific legal framework, we highlight the need for more research on the subject in the future. 具体的な法的枠組みを主張することは,本論文の範囲を超えているものの,今後の課題に関するさらなる研究の必要性を強調する。 0.75
Explainable decision-making algorithms, for instance, may be required to declare their lack of agency, intentionality, and rationality alongside their explanations so that people are not influenced to hold them accountable. 例えば、説明可能な意思決定アルゴリズムは、説明とともに、人々が責任を負うために影響を受けないように、エージェンシー、意図、合理性の欠如を宣言する必要がある。 0.65
Such an approach would be similar to the existing proposals that mandate designers to disclose bots [100]. このようなアプローチは、設計者がボット[100]を公開するように指示する既存の提案と似ています。 0.66
In conclusion, regulation can ensure that explainability and accountability coexist in algorithmic decision-making. 結論として、規制は、説明可能性と説明責任がアルゴリズム的意思決定に共存することを保証することができる。 0.42
4.3 Blameworthy Algorithms? 4.3の責任あるアルゴリズム? 0.50
People ascribe blame, responsibility, and punishment to algorithms upon harm (e g [41, 59, 60, 66, 67]). 人々は、危害のアルゴリズム(例えば、[41, 59, 60, 66, 67])に対する責任、責任、罰を負う。 0.79
In this paper, we argued that explainable systems may be attributed even higher levels of backward-looking responsibilities when they provide post-hoc explanations. 本稿では, 説明可能なシステムは, ポストホックな説明を行う際に, さらに高いレベルの逆向きの責任を負う可能性があることを論じる。 0.62
This effect raises the question of whether an algorithm can be held responsible for its actions. この効果は、アルゴリズムがその行動に責任を持つことができるかどうかという疑問を引き起こす。 0.66
Although most academics agree that responsibility (such as blame and punishment) may be inappropriate for algorithmic systems (e g , see [16, 26, 92]), others approach this question through a different lens [23, 44, 93]. ほとんどの学者は、責任(責任や罰など)がアルゴリズムシステムに不適切である(例: [16, 26, 92])ことに同意するが、別のレンズ [23, 44, 93] を通してこの問題にアプローチする者もいる。 0.80
Given the empirical evidence that humans may attribute different notions of responsibility to these systems [60]—even though they are aware that doing so is unfeasible [59]—we suspect that holding algorithms responsible may take two different routes. 人間が異なる責任の概念をこれらのシステム [60] に持つことができるという実証的な証拠を考えると、彼らはそうすることは不可能だと認識しています [59])。 0.63
13 13 0.85
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al One path dismisses any prospect of holding these systems responsible, arguing that the responsibility for algorithmic decision-making should be left to humans and not algorithms [99]; doing otherwise could lead to vast social and legal unrest [91]. limaなど。 1つの道は、アルゴリズムによる意思決定の責任はアルゴリズム[99]ではなく人間に委ねるべきであり、そうでなければ広大な社会的および法的不安(91]を引き起こす可能性があると主張し、これらのシステムを責任を持つことの可能性を否定する。 0.53
The narrative that AI systems should be held responsible may dilute the much-needed responsibility of designers [16]. AIシステムが責任を負うべきだという物語は、デザイナの非常に必要な責任を薄めるかもしれない [16]。 0.59
To progress along this path, AI systems should be built to refute incorrect attributions of agency, intentionality, or responsibility to algorithms. この道を進むためには、AIシステムは、アルゴリズムに対する誤った帰属、意図、責任を否定するために構築されるべきである。
訳抜け防止モード: この道を進むために。 AIシステムは構築されるべきである アルゴリズムの不正な帰属、意図、責任を否定する。
0.66
As mentioned above, explainable systems could highlight their lack of agency when providing explanations. 前述のように、説明可能なシステムは、説明を提供する際にエージェンシーの欠如を強調する可能性がある。 0.53
Algorithms could be designed to oppose any attribution of mind, which has been shown to influence people’s behavior towards them [29, 58]. アルゴリズムは、人々の行動に影響を与える[29, 58]ことが示されている、心の帰属に反するように設計することができる。 0.80
A more controversial approach would be to invest in holding algorithms responsible, although not to the same extent or in the same way that humans are held accountable. より物議を醸すアプローチは、人間が責任を負うのと同じ程度でも同じようにでもないが、責任を負うアルゴリズムに投資することである。 0.67
Coeckelbergh [23] defended holding such systems virtually morally responsible to the extent that they appear to be moral agents. Coeckelbergh[23]は、このような制度を事実上道徳的に責任を持つものとして擁護した。 0.63
Similarly, Stahl [93] proposed the concept of quasi-responsibility , under which algorithms could be held responsible for fulfilling social goals; according to the author, doing so could facilitate future attributions of responsibility to human stakeholders. 同様に、[93]は準責任の概念を提案し、そこではアルゴリズムが社会的目標を達成する責任を負うことができる。
訳抜け防止モード: 同様に、スタール [93 ] は準責任の概念を提案した。 社会的目標達成の責任を負うアルゴリズムを 著者によると、そうすることで、将来の利害関係者への責任の帰結が促進される。
0.66
AI systems could also be held legally responsible if they are granted legal personhood [95]. aiシステムは、法的パーソナリティを付与された場合、法的責任を負うこともできる[95]。
訳抜け防止モード: AIシステムも開催可能か 法的に責任がある 法的な人格が認められれば [95 ]
0.84
These proposals raise the question of whether such a path is feasible and helpful. これらの提案は、そのような経路が実現可能で役に立つかどうかという疑問を提起する。 0.53
Is there any benefit in holding algorithmic systems accountable in general, or is it solely detrimental to moral, legal, and social consistency? アルゴリズムシステム全般の責任を負うメリットはあるのか、それとも道徳的、合法的、社会的一貫性を損なうだけなのか? 0.70
5 CONCLUDING REMARKS This paper shared a concerning viewpoint that the current call for over-emphasizing explainability in algorithmic decision-making may conflict with accountability. 5 ConCLUding REMARKS この論文は、アルゴリズム決定における説明可能性の過大な要求が、説明責任と矛盾する可能性があるという見解を共有した。 0.54
Based on philosophical interpretations of moral responsibility and empirical research, we suggested that explainable algorithms could be seen as blameworthy and responsible. 倫理的責任の哲学的解釈と経験的研究に基づき、説明可能なアルゴリズムは非難に値する、責任であると見なすことができると示唆した。
訳抜け防止モード: 道徳的責任と実証研究の哲学的解釈に基づく。 説明可能なアルゴリズムを 非難に値する 責任と見なせると提案しました
0.74
We also showed how XAI systems could shift perceived control over algorithms away from designers and towards patients and argued that this shift is mistaken. また、XAIシステムは、デザイナーから患者へのアルゴリズムの制御をどう変えられるかを示し、このシフトは誤りであると主張した。 0.67
Expanding on past work questioning designers’ willingness to take responsibility, we showed how algorithms and patients could become moral scapegoats that might absorb the responsibility of designers. デザイナーの責任を負う意思に疑問を呈する過去の作業を拡張して、アルゴリズムと患者がいかにしてデザイナーの責任を吸収する道徳的なスケープゴートになるかを示した。 0.65
To avoid the potential conflict between explainable and accountable algorithmic decision-making, we have argued for a greater emphasis on designers’ forward-looking responsibilities. 説明可能なアルゴリズム決定と説明可能なアルゴリズム決定の間の潜在的な対立を避けるため、私たちは、設計者の前向きな責任をさらに強調した。 0.53
Existing accountability frameworks should be modified to include explainability considerations at every step of AI development and deployment. 既存の説明責任フレームワークは、ai開発とデプロイメントの各ステップで説明可能性考慮を含むように修正されるべきである。
訳抜け防止モード: 既存の説明責任フレームワークは変更されるべきである ai開発とデプロイメントの各ステップで説明可能性を考慮すること。
0.69
XAI is an important part of the responsible deployment of algorithmic decision-making, but it should not be viewed as a panacea to all problems. XAIはアルゴリズムによる意思決定の責任ある展開の重要な部分ですが、すべての問題に対するパナセアと見なすべきではありません。 0.70
The XAI field is critical for improving algorithmic decision-making, and society should be aware of how those in power may abuse it. XAI分野はアルゴリズムの意思決定を改善するために重要であり、社会は権力者がどのようにそれを悪用するかを認識すべきである。
訳抜け防止モード: XAIの分野はアルゴリズムによる意思決定の改善に不可欠です。 そして社会は 権力者の悪用を 意識すべきです
0.73
ACKNOWLEDGMENTS This work was supported by the Institute for Basic Science (IBS-R029-C2) and the National Research Foundation of Korea (NRF-2017R1E1A1A0107 6400). ACKNOWLEDGMENTS この研究は、Institute for Basic Science (IBS-R029-C2)とNational Research Foundation of Korea (NRF-2017R1E1A010764 00)によって支援された。 0.60
REFERENCES [1] Heike , Eduard Fosch Villaronga, Christoph Lutz, and Aurelia Tamò-Larrieux. 参考 [1]ハイケ、エドゥアルト・フォッシュ・ヴィラロンガ、クリストフ・ルッツ、アウレリア・タムシュ=ラリュー。 0.45
2019. Transparency you can trust: Transparency requirements for 2019. 信頼できる透明性: 透明性要件 0.55
artificial intelligence between legal norms and contextual concerns. 法的規範と文脈的懸念の間の人工知能です 0.64
Big Data & Society 6, 1 (2019), 2053951719860542. big data & society 6, 1 (2019), 2053951719860542。 0.72
[2] Julia Angwin, Madeleine Varner, and Ariana Tobin. [2] ジュリア・アングウィン、マドレーヌ・ヴァーナー、アリアナ・トビン。 0.57
2016. Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. 2016. Machine Bias: 将来の犯罪を予測するために全国で使用されているソフトウェアがあります。 0.57
And it’s Biased Against Blacks. そしてそれは、黒人に対するバイアスだ。 0.69
https://www.propubli ca.org/article/machi ne-bias-risk-assessm ents-in-criminal-sen tencing. https://www.propubli ca.org/article/machi ne-bias-risk-assessm ents-in-criminal-sen tencing。 0.11
[3] Alejandro Barredo Arrieta, Natalia Díaz-Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-López, Daniel Molina, Richard Benjamins, et al 2020. Alejandro Barredo Arrieta氏、Natalia Díaz-Rodríguez氏、Javier Del Ser氏、Adrien Bennetot氏、Siham Tabik氏、Alberto Barbado氏、Salvador García氏、Sergio Gil-López氏、Daniel Molina氏、Richard Benjamins氏など。 0.39
Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. 説明可能な人工知能(XAI): 責任あるAIに対する概念、分類、機会、課題。 0.78
Information Fusion 58 (2020), 82–115. Information Fusion 58 (2020), 82-115。 0.42
[4] Peter M Asaro. 4] ピーター・m・アサロ 0.63
2016. The Liability Problem for Autonomous Artificial Agents. 2016. 自律型人工エージェントの責任問題 0.47
. In AAAI Spring Symposia. . AAAIスプリングシンポジウムに参加。 0.57
190–194. 14 190–194. 14 0.39
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
[5] Edmond Awad, Sohan Dsouza, Jean-François Bonnefon, Azim Shariff, and Iyad Rahwan. 5]エドモンド・アワド、ソーハン・ドスザ、ジャン=フランソワ・ボネフォン、アジム・シャリフ、イヤド・ラーワン 0.44
2020. Crowdsourcing moral machines. 2020. モラルマシンのクラウドソーシング。 0.42
Commun. ACM 63, 共産。 ACM63, 0.37
3 (2020), 48–55. 3 (2020), 48–55. 0.48
[6] Gagan Bansal, Besmira Nushi, Ece Kamar, Walter S Lasecki, Daniel S Weld, and Eric Horvitz. Gagan Bansal氏、Besmira Nushi氏、Ece Kamar氏、Walter S Lasecki氏、Daniel S Weld氏、Eric Horvitz氏。 0.69
2019. Beyond accuracy: The role of mental models in 2019. 正確性を超えて:精神モデルの役割 0.63
human-ai team performance. 人間-aiチームのパフォーマンス。 0.65
In Proceedings of the AAAI Conference on Human Computation and Crowdsourcing, Vol. aaai conference on human computation and crowdsourcing(aaaiの計算とクラウドソーシングに関する会議)の議事録(その2) 0.39
7. 2–11. [7] Gagan Bansal, Tongshuang Wu, Joyce Zhou, Raymond Fok, Besmira Nushi, Ece Kamar, Marco Tulio Ribeiro, and Daniel Weld. 7. 2–11. 7] ガン・バンサル、トンジュン・ウー、ジョイス・周、レイモンド・フォック、ベスミラ・ヌシ、エケ・カマール、マルコ・トゥリオ・リベイロ、ダニエル・ウェルド
訳抜け防止モード: 7. 2–11. [7]ガガン・バンサル、トンシュアン・ウー、ジョイス・周 Raymond Fok, Besmira Nushi, Ece Kamar, Marco Tulio Ribeiro ダニエル・ウェルド。
0.42
2021. Does the whole exceed its parts? 2021. 全体は部分を超えますか? 0.60
The effect of AI explanations on complementary team performance. AIの説明が相補的なチームのパフォーマンスに与える影響。 0.69
In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.71
1–16. [8] Solon Barocas and Andrew D Selbst. 1–16. 8]Solon BarocasとAndrew D Selbst。 0.35
2016. Big data’s disparate impact. 2016. ビッグデータの影響はさまざまだ。 0.60
Calif. L. Rev. 104 (2016), 671. Calif l. rev. 104(2016年)671頁。 0.50
[9] Solon Barocas, Andrew D Selbst, and Manish Raghavan. 9]Solon Barocas、Andrew D Selbst、Manish Raghavan。 0.30
2020. The hidden assumptions behind counterfactual explanations and principal reasons. 2020. 事実的説明の裏にある隠された仮定と主な理由。 0.49
In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency. 2020年の公正、説明責任、透明性に関する会議の議事録で 0.68
80–89. [10] Adrien Bibal, Michael Lognoul, Alexandre de Streel, and Benoît Frénay. 80–89. 10] アドリアン・ビバル、マイケル・ログノール、アレクサンドル・ド・ストレル、ベノワ・フレネー。 0.41
2020. Legal requirements on explainability in machine learning. 2020. 機械学習における説明可能性に関する法的要件。 0.52
Artificial [11] Jean-François Bonnefon, Azim Shariff, and Iyad Rahwan. 人工物 11]ジャン=フランソワ・ボネフォン、アジム・シャリフ、イヤド・ラーワン 0.53
2020. The moral psychology of AI and the ethical opt-out problem. 2020. AIの道徳心理学と倫理的オプトアウト問題。 0.58
Oxford University Press, オックスフォード大学出版局。 0.70
Intelligence and Law (2020), 1–21. 情報・法学(2020年)、1-21頁。 0.50
Oxford, UK. イギリス、オックスフォード出身。 0.74
[12] Mark Bovens. 12] マーク・ボーヴェンズ 0.51
2007. Analysing and assessing accountability: A conceptual framework. 2007. 説明責任の分析と評価: 概念的なフレームワーク。 0.60
European law journal 13, 4 (2007), 447–468. 欧州法典13巻(2007年)、447-468頁。 0.61
[13] Harry Brignull, Marc Miquel, Jeremy Rosenberg, and James Offer. ハリー・ブリッグヌル、マーク・ミケル、ジェレミー・ローゼンバーグ、ジェームズ・オファー。 0.52
2015. Dark Patterns-User Interfaces Designed to Trick People. 2015. ダークパターン-人を騙すために設計されたユーザーインターフェース。 0.46
[14] Bartosz Brożek and Bartosz Janik. 14] バルトシュ・ブロシェクとバルトシュ・ヤニク 0.27
2019. Can artificial intelligences be moral agents? 2019. 人工知能は道徳的エージェントになれるか? 0.52
New Ideas in Psychology 54 (2019), 101–106. 心理学における新しい考え方(2019年)、101-106。 0.62
[15] Joanna J Bryson. ジョアンナ・J・ブライソン(Joanna J Bryson) 0.57
2010. Robots should be slaves. 2010. ロボットは奴隷であるべきだ。 0.54
Close Engagements with Artificial Companions: Key social, psychological, ethical and design issues 8 人工コンパニオンを用いた密接なエンゲージメント:社会・心理的・倫理的・デザイン上の課題8 0.68
(2010), 63–74. (2010), 63–74. 0.49
[16] Joanna J Bryson, Mihailis E Diamantis, and Thomas D Grant. 16]ジョアンナ・j・ブライソン、ミハイリス・e・ディアマンティス、トーマス・d・グラント 0.56
2017. Of, for, and by the people: the legal lacuna of synthetic persons. 2017. 人々のために、そして人々によって: 合成人の法的なラックナ。 0.51
Artificial Intelligence and Law 25, 3 (2017), 273–291. 人工物 第25条第3項(2017年)、第273-291条。 0.55
[17] Zana Buçinca, Maja Barbara Malaya, and Krzysztof Z Gajos. Zana Buçinca, Maja Barbara Malaya, Krzysztof Z Gajos. [17] Zana Buçinca, Maja Barbara Malaya, and Krzysztof Z Gajos. 0.33
2021. To trust or to think: cognitive forcing functions can reduce overreliance on AI in 2021. 信頼するか、考えるか:認知強制機能はAIへの過度な依存を減らすことができる 0.53
AI-assisted decision-making. AIによる意思決定。 0.53
Proceedings of the ACM on Human-Computer Interaction 5, CSCW1 (2021), 1–21. ACM on Human-Computer Interaction 5, CSCW1 (2021), 1–21。 0.41
[18] Jenna Burrell. ジェナ・バレル(Jenna Burrell)。 0.55
2016. How the machine ‘thinks’: Understanding opacity in machine learning algorithms. 2016. マシンの考え方: 機械学習アルゴリズムにおける不透明性を理解すること。 0.59
Big Data & Society 3, 1 (2016), Big Data & Society 3, 1 (2016) 0.37
2053951715622512. 2053951715622512. 0.42
[19] Stephen Cave, Claire Craig, Kanta Dihal, Sarah Dillon, Jessica Montgomery, Beth Singler, and Lindsay Taylor. 19]スティーブン・ケイブ、クレア・クレイグ、カンタ・ディハル、サラ・ディロン、ジェシカ・モンゴメリー、ベス・シンジャー、リンゼイ・テイラー
訳抜け防止モード: [19 ]Stephen Cave, Claire Craig, Kanta Dihal, サラ・ディロン、ジェシカ・モンゴメリー、ベス・シングルラー、リンゼイ・テイラー。
0.82
2018. Portrayals and perceptions of 2018. ポートレイルと知覚 0.43
AI and why they matter. AIと、それがなぜ重要なのか。 0.57
(2018). [20] Paulius Čerka, Jurgita Grigien˙e, and Gintar˙e Sirbikyt˙e. (2018). 20]パウリス・チェルカ、ユルギタ・グリギエン・シエ、ギンタル・イ・シルビキート・シエ。 0.33
2015. Liability for damages caused by artificial intelligence. 2015. 人工知能による損害に対する責任。 0.53
Computer Law & Security コンピュータ法とセキュリティ 0.71
Review 31, 3 (2015), 376–389. 第31巻(2015年)、376-389頁。 0.49
[21] Marc Champagne and Ryan Tonkens. 21] マルク・シャンパンとライアン・トンケンズ 0.57
2015. Bridging the responsibility gap in automated warfare. 2015. 自動戦における責任ギャップを埋めること。 0.56
Philosophy & Technology 28, 1 (2015), 125–137. 哲学と技術 28, 1 (2015), 125–137。 0.82
[22] Jennifer Cobbe, Michelle Seng Ah Lee, and Jatinder Singh. 22]ジェニファー・コブ、ミシェル・セン・アフ・リー、ジャティンダー・シン。 0.50
2021. Reviewable Automated Decision-Making: A Framework for Accountable 2021. レビュー可能な自動意思決定 - 説明責任のためのフレームワーク 0.49
Algorithmic Systems. アルゴリズムシステム。 0.72
In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 2021年 ACM Conference on Fairness, Accountability, and Transparency に参加して 0.74
[23] Mark Coeckelbergh. マーク・コーケルベルク(Mark Coeckelbergh)。 0.60
2009. Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and 2009. 仮想モラル・エージェンシー、仮想モラル・責任--外見、知覚、および道徳的意義について 0.52
performance of artificial agents. 人工エージェントの性能。 0.68
AI & Society 24, 2 (2009), 181–189. AI & Society 24 2 (2009), 181-189。 0.35
[24] Mark Coeckelbergh. マーク・コーケルバーグ(Mark Coeckelbergh)。 0.61
2020. Artificial intelligence, responsibility attribution, and a relational justification of explainability. 2020. 人工知能、責任帰属、説明可能性の関連性の正当化。 0.51
Science and engineering ethics 26, 4 (2020), 2051–2068. 科学技術 倫理26, 4 (2020), 2051–2068。 0.40
[25] ACM US Public Policy Council. 【25】acm米国公共政策審議会 0.66
2017. Statement on algorithmic transparency and accountability. 2017. アルゴリズムの透明性と説明責任に関する記述。 0.51
Commun. ACM (2017). 共産。 ACM (2017)。 0.59
[26] John Danaher. ジョン・ダナハー(John Danaher)。 0.54
2016. Robots, law and the retribution gap. 2016. ロボット、法律、そして貢献のギャップ。 0.58
Ethics and Information Technology 18, 4 (2016), 299–309. 倫理と情報技術 18, 4 (2016), 299–309。 0.77
[27] Amit Datta, Michael Carl Tschantz, and Anupam Datta. Amit Datta氏、Michael Carl Tschantz氏、Anupam Datta氏。 0.32
2015. Automated experiments on ad privacy settings: A tale of opacity, choice, and 2015. 広告のプライバシー設定に関する自動実験:不透明さ、選択、そして物語 0.60
discrimination. Proceedings on privacy enhancing technologies 2015, 1 (2015), 92–112. 差別だ プライバシー強化技術2015年1月(2015年)、92-112。 0.64
[28] Paul B De Laat. ポール・B・ド・ラート(Paul B De Laat)。 0.54
2018. Algorithmic decision-making based on machine learning from Big Data: Can transparency restore accountability? 2018. ビッグデータからの機械学習に基づくアルゴリズム的意思決定:透明性は説明責任を回復できるか? 0.54
Philosophy & technology 31, 4 (2018), 525–541. 哲学 & technology 31, 4 (2018), 525–541. 0.61
[29] Celso de Melo, Jonathan Gratch, and Peter Carnevale. Celso de Melo, Jonathan Gratch, Peter Carnevale。 0.25
2014. The importance of cognition and affect for artificially intelligent decision makers. 2014. 知的な意思決定者に対する認知と影響の重要性。 0.56
In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 院 AAAI Conference on Artificial Intelligence, Vol. に参加して 0.63
28. [30] Filippo Santoni de Sio and Giulio Mecacci. 28. フィリッポ・サントニ・デ・シオとジュリオ・メカッチ。 0.41
2021. Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them. 2021. 人工知能による4つの責任ギャップ:なぜそれらが重要か、どのように対処するか。 0.50
Philosophy & Technology (2021), 1–28. 哲学・技術(2021年)、1-28頁。 0.61
[31] Finale Doshi-Velez, Mason Kortz, Ryan Budish, Chris Bavitz, Sam Gershman, David O’Brien, Kate Scott, Stuart Schieber, James Waldo, David [31]Finale Doshi-Velez, Mason Kortz, Ryan Budish, Chris Bavitz, Sam Gershman, David O'Brien, Kate Scott, Stuart Schieber, James Waldo, David
訳抜け防止モード: [31]最終回 同志-ヴェレス、メイソン・コルツ、ライアン・バディッシュ Chris Bavitz, Sam Gershman, David O’Brien, Kate Scott スチュアート・シーバー、ジェームズ・ワルド、デイヴィッド
0.78
Weinberger, et al 2017. Weinberger, et al 2017 0.34
Accountability of AI under the law: The role of explanation. 法の下でのaiの説明責任:説明の役割。 0.67
arXiv preprint arXiv:1711.01134 (2017). arXiv preprint arXiv:1711.01134 (2017) 0.42
[32] Upol Ehsan, Samir Passi, Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl, et al 2021. [32]Upol Ehsan, Samir Passi, Q Vera Liao, Larry Chan, I Lee, Michael Muller, Mark O Riedl, et al 2021。 0.40
The who in explainable AI: How AI background 説明可能なAI:AIの背景 0.49
shapes perceptions of AI explanations. AI説明の知覚を形作る。 0.75
arXiv preprint arXiv:2107.13509 (2021). arxiv プレプリント arxiv:2107.13509 (2021) 0.45
[33] Upol Ehsan and Mark O Riedl. [33]Upol EhsanとMark O Riedl。 0.35
2021. Explainability Pitfalls: Beyond Dark Patterns in Explainable AI. 2021. 説明可能性の落とし穴: 説明可能なAIのダークパターンを超えて。 0.48
arXiv preprint arXiv:2109.12480 (2021). arxiv プレプリント arxiv:2109.12480 (2021) 0.44
[34] Madeleine Clare Elish. マドレーヌ・クレア・エリッシュ(Madeleine Clare Elish) 0.51
2019. Moral crumple zones: Cautionary tales in human-robot interaction. 2019. モラル・クルムプルゾーン:人間とロボットの相互作用における注意深い物語。 0.48
Engaging Science, Technology, and Society (2019). 科学・技術・社会に携わる(2019年)。 0.65
[35] European Commission. [35]欧州委員会委員。 0.70
2019. Liability for artificial intelligence and other emerging digital technologies. 2019. 人工知能や他の新興デジタル技術に対する責任。 0.57
https://op.europa.eu /en/publication- https://op.europa.eu /en/publication- 0.16
detail/-/publication /1c5e30be-1197-11ea- 8c1f-01aa75ed71a1/la nguage-en/format-PDF details/-/publicatio n/1c5e30be-1197-11ea -8c1f-01aa75ed71a1/ language-en/format-P DF 0.03
[36] European Commission. [36]欧州委員会。 0.78
2021. Communication From the Commission to the European Parliament, the Council, the European Economic and Social Committee and the Committee of the Regions Empty: Fostering a European approach to Artificial Intelligence. 2021. 欧州委員会から欧州議会、理事会、欧州経済社会委員会、欧州地域委員会へのコミュニケーションは空であり、欧州の人工知能へのアプローチを育む。 0.53
https://eur-lex.euro pa.eu/legal- https://eur-lex.euro pa.eu/legal- 0.16
15 15 0.43
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al content/EN/ALL/? limaなど。 content/en/all/? 0.35
uri=COM:2021:205:FIN uri=COM:2021:205:FIN 0.24
[37] Ernst Fehr and Simon Gächter. 37] エルンスト・ファーとサイモン・ゲヒター 0.42
2002. Altruistic punishment in humans. 2002. 人間に対する利他的処罰。 0.51
Nature 415, 6868 (2002), 137–140. 自然 415, 6868 (2002), 137–140。 0.41
[38] Luciano Floridi. ルチアーノ・フロリディ(Luciano Floridi)。 0.52
2019. Translating principles into practices of digital ethics: Five risks of being unethical. 2019. 原則をデジタル倫理の実践に変換する: 倫理的でない5つのリスク。 0.54
Philosophy & Technology 32, 2 (2019), 哲学・技術32巻(2019年) 0.58
185–193. [39] Luciano Floridi, Josh Cowls, Monica Beltrametti, Raja Chatila, Patrice Chazerand, Virginia Dignum, Christoph Luetge, Robert Madelin, Ugo Pagallo, Francesca Rossi, et al 2018. 185–193. 39] Luciano Floridi, Josh Cowls, Monica Beltrametti, Raja Chatila, Patrice Chazerand, Virginia Dignum, Christoph Luetge, Robert Madelin, Ugo Pagallo, Francesca Rossi, et al 2018。
訳抜け防止モード: 185–193. [39 ]ルチアーノ・フロリディ,ジョシュ・カウルス,モニカ・ベルトラメッティ, Raja Chatila, Patrice Chazerand, Virginia Dignum, Christoph Luetge Robert Madelin, Ugo Pagallo, Francesca Rossi, et al 2018
0.51
AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. AI4People — 優れたAI社会のための倫理的枠組み:機会、リスク、原則、レコメンデーション。 0.66
Minds and Machines 28, 4 (2018), 689–707. マインドズ・アンド・マシーン 28, 4 (2018), 689-707。 0.69
[40] Matija Franklin, Edmond Awad, and David Lagnado. 40] Matija Franklin、Edmond Awad、David Lagnado。 0.30
2021. Blaming automated vehicles in difficult situations. 2021. 難しい状況で自動走行車を非難する。 0.53
Iscience 24, 4 (2021), 102252. Iscience 24 4 (2021), 102252。 0.66
[41] Caleb Furlough, Thomas Stokes, and Douglas J Gillan. 41]ケイレブ・ファーロー、トーマス・ストークス、ダグラス・j・ギラン 0.58
2019. Attributing blame to robots: I. 2019. ロボットに責任を負うのは私です。 0.51
The influence of robot autonomy. ロボットの自律性の影響。 0.75
Human factors (2019), 人的要因(2019年) 0.32
0018720819880641. 0018720819880641. 0.42
[42] Bryce Goodman and Seth Flaxman. ブライス・グッドマンとセス・フラックスマン。 0.46
2017. European Union regulations on algorithmic decision-making and a “right to explanation”. 2017. 欧州連合のアルゴリズム決定に関する規制と「説明の権利」。 0.58
AI magazine 38, 3 (2017), 50–57. AI雑誌 38, 3 (2017), 50–57. 0.61
[43] John-Stewart Gordon. ジョン=シュテュアート・ゴードン(John-Stewart Gordon)。 0.47
2020. Artificial moral and legal personhood. 2020. 人道的道徳と法的な人格。 0.49
AI & Society (2020), 1–15. AI & Society (2020), 1-15頁。 0.83
[44] David J Gunkel. デヴィッド・J・ガンケル(David J Gunkel)。 0.47
2017. Mind the gap: responsible robotics and the problem of responsibility. 2017. 責任を負うロボティクスと責任の問題。 0.44
Ethics and Information Technology (2017), 1–14. 倫理・情報技術(2017年)、1-14頁。 0.45
[45] F Allan Hanson. アラン・ハンソン(Allan Hanson)。 0.62
2009. Beyond the skin bag: On the moral responsibility of extended agencies. 2009. スキンバッグを超えて: 拡張機関の道徳的責任について。 0.52
Ethics and information technology 11, 1 (2009), 91–99. 倫理と情報技術 11, 1 (2009), 91–99。 0.76
[46] Kenneth Einar Himma. [46]Kenneth Einar Himma。 0.34
2009. Artificial agency, consciousness, and the criteria for moral agency: What properties must an artificial agent have to 2009. 人工知能, 意識, 道徳的エージェントの基準: 人工エージェントにはどのような特性が必要か 0.60
be a moral agent? 道徳的なエージェントになる? 0.65
Ethics and Information Technology 11, 1 (2009), 19–29. 倫理・情報技術11、1(2009)、19-29。 0.55
[47] Maia Jacobs, Melanie F Pradier, Thomas H McCoy, Roy H Perlis, Finale Doshi-Velez, and Krzysztof Z Gajos. Maia Jacobs氏、Melanie F Pradier氏、Thomas H McCoy氏、Roy H Perlis氏、Finale Doshi-Velez氏、Krzysztof Z Gajos氏。
訳抜け防止モード: 47] マイア・ジェイコブス メラニー・f・プラディエ トーマス・h・マッコイ roy h perlis, finale doshi - velez, krzysztof z gajos。
0.56
2021. How machine-learning recommendations influence clinician treatment selections: the example of the antidepressant selection. 2021. 機械学習推奨が臨床治療選択にどのように影響するか:抗うつ薬選択の例。 0.57
Translational psychiatry 11, 1 (2021), 1–9. 翻訳精神医学11,1(2021),1~9。 0.74
[48] Anna Jobin, Marcello Ienca, and Effy Vayena. [48]アンナ・ジョビン、マルチェロ・イエンカ、エフィー・ヴァイエナ 0.54
2019. The global landscape of AI ethics guidelines. 2019. AI倫理ガイドラインの世界的な状況。 0.52
Nature Machine Intelligence 1, 9 (2019), 389–399. Nature Machine Intelligence 1, 9 (2019), 389–399。 0.44
[49] Deborah G Johnson. デボラ・g・ジョンソンです 0.37
2006. Computer systems: Moral entities but not moral agents. 2006. コンピュータシステム:道徳的な実体だが、道徳的なエージェントではない。 0.49
Ethics and information technology 8, 4 (2006), 195–204. 倫理と情報技術 8, 4 (2006), 195–204。 0.78
[50] Deborah G Johnson. 50] デボラ・g・ジョンソン 0.54
2015. Technology with no human responsibility? 2015. 人間の責任のない技術? 0.64
Journal of Business Ethics 127, 4 (2015), 707–715. Journal of Business Ethics 127, 4 (2015), 707–715。 0.43
[51] Shalmali Joshi, Oluwasanmi Koyejo, Warut Vijitbenjaronk, Been Kim, and Joydeep Ghosh. [51]Shalmali Joshi,Oluwasanmi Koyejo,Warut Vijitbenjaronk,Been Kim,Joydeep Ghosh。 0.32
2019. Towards realistic individual recourse and actionable 2019. 現実的な個人の言説と行動可能に向けて 0.44
explanations in black-box decision making systems. ブラックボックス意思決定システムにおける説明。 0.69
arXiv preprint arXiv:1907.09615 (2019). arXiv preprint arXiv:1907.09615 (2019)。 0.76
[52] Atoosa Kasirzadeh and Andrew Smart. 52]Atoosa Kasirzadeh氏とAndrew Smart氏。 0.42
2021. The Use and Misuse of Counterfactuals in Ethical Machine Learning. 2021. 倫理的機械学習における反事実の使用と誤用。 0.57
In Proceedings of the 2021 ACM 2021 acmの手続において 0.79
Conference on Fairness, Accountability, and Transparency. 公正、説明責任、透明性に関する会議。 0.73
228–236. [53] Harmanpreet Kaur, Harsha Nori, Samuel Jenkins, Rich Caruana, Hanna Wallach, and Jennifer Wortman Vaughan. 228–236. Harmanpreet Kaur氏、Harsha Nori氏、Samuel Jenkins氏、Rich Caruana氏、Hanna Wallach氏、Jennifer Wortman Vaughan氏。 0.51
2020. Interpreting Interpretability: Understanding Data Scientists’ Use of Interpretability Tools for Machine Learning. 2020. 解釈可能性: 機械学習におけるデータサイエンティストの解釈ツールの利用を理解する。 0.57
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
1–14. [54] Lauren Kirchner. 1–14. ローレン・キルヒナー(Lauren Kirchner)。 0.47
2020. Can Algorithms Violate Fair Housing Laws? 2020. アルゴリズムは住宅法に違反できるのか? 0.53
The Markup. https://themarkup.or g/locked-out/2020/09 /24/fair-housing- マークアップ。 https://themarkup.or g/locked-out/2020/09 /24/fair-housing- 0.36
laws-algorithms-tena nt-screenings. law-algorithms-tenan t-screenings 0.20
[55] Kirsten Korosec. [55]Kirsten Korosec。 0.36
2015. Volvo CEo: we will Accept All Liability when our Cars Are in Autonomous Mode. 2015. Volvo CEo: 自動運転車が自律モードになったら、すべての責任を認めます。 0.57
http://fortune.com/2 015/10/07/volvo- http://fortune.com/2 015/10/07/volvo 0.14
liability-self-drivi ng-cars/. [56] Joshua A Kroll. 自動運転車。 [56]ジョシュア・ア・クロール。 0.47
2021. Outlining Traceability: A Principle for Operationalizing Accountability in Computing Systems. 2021. トレーサビリティの概要: コンピュータシステムにおけるアカウンタビリティの運用に関する原則。 0.57
In Proceedings of the 2021 2021年を振り返って 0.60
ACM Conference on Fairness, Accountability, and Transparency. acm conference on fairness, accountability, and transparency(英語) 0.40
758–771. [57] Markus Langer, Daniel Oster, Timo Speith, Holger Hermanns, Lena Kästner, Eva Schmidt, Andreas Sesing, and Kevin Baum. 758–771. Markus Langer氏、Daniel Oster氏、Timo Speith氏、Holger Hermanns氏、Lena Kästner氏、Eva Schmidt氏、Andreas Sesing氏、Kevin Baum氏。
訳抜け防止モード: 758–771. 57] マーカス・ランガー ダニエル・オスター ティモ・スペイト holger hermanns氏、lena kästner氏、eva schmidt氏、andreas sesing氏。 そしてケビン・バウム
0.42
2021. What do we want from Explainable Artificial Intelligence (XAI)? 2021. XAI(Explainable Artificial Intelligence)とは何か? 0.56
–A stakeholder perspective on XAI and a conceptual model guiding interdisciplinary XAI research. -XAIのステークホルダー視点と学際的XAI研究を導く概念モデル。 0.68
Artificial Intelligence 296 (2021), 103473. 人工知能 296 (2021), 103473。 0.60
[58] Minha Lee, Gale Lucas, Johnathan Mell, Emmanuel Johnson, and Jonathan Gratch. 58]Minha Lee, Gale Lucas, Johnathan Mell, Emmanuel Johnson, そしてJonathan Gratch。 0.74
2019. What’s on Your Virtual Mind? 2019. バーチャルマインドには何があるのか? 0.47
Mind Perception in Human-Agent Negotiations. 心の知覚 対人交渉。 0.56
In Proceedings of the 19th acm international conference on intelligent virtual agents. 第19回「知的仮想エージェントに関する国際会議」に参加して 0.70
38–45. [59] Gabriel Lima, Meeyoung Cha, Chihyung Jeon, and Kyung Sin Park. 38–45. 59]Gabriel Lima、Meeyoung Cha、Chihyung Jeon、Kung Sin Park。 0.50
2021. The Conflict Between People’s Urge to Punish AI and Legal Systems. 2021. aiと法制度を罰する人々の衝動の衝突。 0.44
Frontiers in Robotics and AI 8 (2021), 339. ロボットとAI 8(2021年)のフロンティア、339。 0.71
https://doi.org/10.3 389/frobt.2021.75624 2 https://doi.org/10.3 389/frobt.2021.75624 2 0.13
[60] Gabriel Lima, Nina Grgić-Hlača, and Meeyoung Cha. [60]Gabriel Lima、Nina Grgić-Hlača、Meeyoung Cha。 0.40
2021. Human perceptions on moral responsibility of AI: A case study in AI-assisted bail 2021. AIの道徳的責任に対する人間の認識--AI支援救済を事例として 0.54
decision-making. In Proceedings of the 2021 CHI Conference on Human Factors in Computing Systems. 意思決定。 2021 CHI Conference on Human Factors in Computing Systems に参加して 0.64
1–17. [61] Zachary C Lipton. 1–17. [61] ザカリー・c・リプトン 0.48
2018. The Mythos of Model Interpretability: In machine learning, the concept of interpretability is both important and slippery. 2018. モデル解釈可能性のミソス: 機械学習では、解釈可能性の概念は重要かつ滑りやすい。 0.57
Queue 16, 3 (2018), 31–57. 背番号16,3 (2018), 31-57。 0.55
[62] Peng Liu, Manqing Du, and Tingting Li. [62]Peng Liu,Manqing Du,Tingting Li 0.29
2021. Psychological consequences of legal responsibility misattribution associated with automated vehicles. 2021. 自動運転車による法的責任の誤帰の心理的影響 0.58
Ethics and information technology (2021), 1–14. 倫理と情報技術(2021年)、1-14。 0.64
[63] Bertram Malle. バートラム・マール(Bertram Malle)。 0.49
2006. Intentionality, morality, and their relationship in human judgment. 2006. 意図性、道徳性、そして人間の判断における関係性。 0.54
Journal of cognition and culture 6, 1-2 (2006), 87–112. The Journal of cognition and Culture 6, 1-2 (2006), 87–112。 0.43
[64] Bertram F Malle, Steve Guglielmo, and Andrew E Monroe. 64] バートラム・f・マレ、スティーヴ・グリエルモ、アンドリュー・e・モンロー 0.53
2014. A theory of blame. 2014. 非難の理論。 0.43
Psychological Inquiry 25, 2 (2014), 147–186. 心理調査25(2014年)、147-186。 0.68
[65] Bertram F Malle and Joshua Knobe. 65] バートラム・f・マレと ジョシュア・クノーベ 0.51
1997. The folk concept of intentionality. 1997. 意図性という民俗概念です 0.53
Journal of experimental social psychology 33, 2 (1997), 101–121. 実験社会心理学誌 33, 2 (1997), 101–121。 0.80
[66] Bertram F Malle, Stuti Thapa Magar, and Matthias Scheutz. 66] バートラム・f・マレ、 スタッティ・タパ・マガー、 マティアス・シューツ 0.54
2019. AI in the sky: How people morally evaluate human and machine decisions in a 2019. 空のAI:人間と機械の意思決定を道徳的に評価する方法 0.58
lethal strike dilemma. 致命的なジレンマです 0.46
In Robotics and well-being. ロボットと健康について。 0.62
Springer, 111–133. スプリンガー、111-133。 0.54
[67] Bertram F Malle, Matthias Scheutz, Thomas Arnold, John Voiklis, and Corey Cusimano. [67] バートラム・f・マレ、マティアス・シューツ、トーマス・アーノルド、ジョン・ヴォイクリス、コーリー・クシモノ 0.52
2015. Sacrifice one for the good of many? 2015. 多くを犠牲にするのか? 0.52
People apply different moral norms to human and robot agents. 人々は人間とロボットエージェントに異なる道徳的規範を適用する。 0.76
In 2015 10th ACM/IEEE International Conference on Human-Robot Interaction (HRI). 2015年の第10回ACM/IEEE International Conference on Human-Robot Interaction (HRI)に参加。 0.65
IEEE, 117–124. IEEE 117-124。 0.43
16 16 0.42
英語(論文から抽出)日本語訳スコア
The Conflict Between Explainable and Accountable Decision-Making Algorithms 説明可能な意思決定アルゴリズムと説明可能な意思決定アルゴリズムの対立 0.47
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
[68] Serena Marchesi, Davide Ghiglino, Francesca Ciardo, Jairo Perez-Osorio, Ebru Baykara, and Agnieszka Wykowska. [68]セレーナ・マルチェシ、ダヴィデ・ギグリノ、フランチェスカ・シアルド、ジャイロ・ペレス=オソリオ、エブル・ベイカラ、アニュシュカ・ワイコウスカ 0.45
2019. Do we adopt the 2019. 採用しますか? 0.43
intentional stance toward humanoid robots? ヒューマノイドロボットに対する意図的姿勢? 0.70
Frontiers in psychology 10 (2019), 450. 心理学におけるフロンティア(2019年)、450。 0.68
[69] Andreas Matthias. アンドレアス・マティアス(Andreas Matthias)。 0.58
2004. The responsibility gap: Ascribing responsibility for the actions of learning automata. 2004. 責任ギャップ: 自動学習の行動に対して責任を負うこと。 0.62
Ethics and information technology 6, 3 (2004), 175–183. 倫理と情報技術6 3 (2004), 175–183. 0.53
[70] Tim Miller. ティム・ミラー(Tim Miller) 0.57
2019. Explanation in artificial intelligence: Insights from the social sciences. 2019. 人工知能における説明:社会科学からの洞察。 0.58
Artificial intelligence 267 (2019), 1–38. 人工知能267 (2019), 1-38。 0.70
[71] Brent Mittelstadt. [71]ブレント・ミッテルシュタット 0.58
2019. Principles alone cannot guarantee ethical AI. 2019. 原則だけでは倫理的AIを保証できない。 0.52
Nature Machine Intelligence 1, 11 (2019), 501–507. Nature Machine Intelligence 1, 11 (2019), 501–507。 0.44
[72] Brent Mittelstadt, Chris Russell, and Sandra Wachter. Brent Mittelstadt氏、Chris Russell氏、Sandra Wachter氏。 0.59
2019. Explaining explanations in AI. 2019. AIでの説明。 0.57
In Proceedings of the conference on fairness, accountability, 公正、説明責任に関する会議の議事録で 0.60
[73] Satya Nadella. サティア・ナデラ(Satya Nadella)。 0.55
2016. The Partnership of the Future. 2016. 未来のパートナーシップ。 0.47
https://slate.com/te chnology/2016/06/mic rosoft-ceo-satya-nad ella-humans-and-a-i- can-work- 2016/06/microsoft-ce o-satya-nadella- humans-and-a-i-can-w ork- 0.07
[74] Sven Nyholm. [74]スヴェン・ニホルム。 0.49
2018. Attributing agency to automated systems: Reflections on human–robot collaborations and responsibility-loci. 2018. 自動システムへの貢献: 人間とロボットのコラボレーションと責任-ロシに関する考察。 0.54
Science and [75] Ziad Obermeyer, Brian Powers, Christine Vogeli, and Sendhil Mullainathan. 科学と Ziad Obermeyer氏、Brian Powers氏、Christine Vogeli氏、Sendhil Mullainathan氏。 0.71
2019. Dissecting racial bias in an algorithm used to manage the health 2019. 健康管理のためのアルゴリズムにおける人種的偏見の分別 0.51
and transparency. 279–288. そして透明性です 279–288. 0.55
together-to-solve-so cietys-challenges.ht ml. together-to-solve-so cietys-challenges.ht ml 0.14
engineering ethics 24, 4 (2018), 1201–1219. 工学倫理24, 4 (2018), 1201-1219。 0.35
of populations. Science 366, 6464 (2019), 447–453. 人口のことです 科学 366, 6464 (2019), 447–453。 0.76
[76] Frank Pasquale. フランク・パスクァル(Frank Pasquale)。 0.56
2015. The black box society. 2015. ブラックボックス社会。 0.50
Harvard University Press. ハーバード大学出版局。 0.66
[77] Jairo Perez-Osorio and Agnieszka Wykowska. [77]Jairo Perez-OsorioとAgnieszka Wykowska。 0.43
2020. Adopting the intentional stance toward natural and artificial agents. 2020. 自然と人工のエージェントに対する意図的な姿勢を採用する。 0.52
Philosophical Psychology 33, 3 (2020), 369–395. 哲学心理学 33, 3 (2020), 369–395. 0.63
[78] William Lloyd Prosser et al 1941. ウィリアム・ロイド・プロッサーら1941年。 0.51
Handbook of the Law of Torts. トルツの法則のハンドブック。 0.45
Vol. 4. vol.1。 4. 0.41
West Publishing. ウエスト・パブリッシング 0.44
[79] Anaïs Rességuier and Rowena Rodrigues. ローナ・ロドリゲス (Rowena Rodrigues) とアナネス・レセギエ (Anais Rességuier)。 0.45
2020. AI ethics should not remain toothless! 2020. ai倫理は無歯のままでいてはならない! 0.45
A call to bring back the teeth of ethics. 倫理の歯を取り戻そうとする声。 0.48
Big Data & Society 7, Big Data & Society 7 (英語) 0.77
2 (2020), 2053951720942541. 2 (2020), 2053951720942541. 0.37
[80] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. 80]マルコ・トゥリオ・リベイロ、サマー・シン、カルロス・ゲストリン 0.49
2016. “Why should I trust you?” 2016. 「なぜ君を信用すべきなのか」 0.53
Explaining the predictions of any classifier. 分類器の予測を説明する。 0.75
In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 手続き中 第22回ACM SIGKDD国際会議「知識発見とデータマイニング」に参加。 0.70
1135–1144. 1135–1144. 0.35
[81] Scott Robbins. スコット・ロビンス(Scott Robbins)。 0.64
2019. A misdirected principle with a catch: explicability for AI. 2019. キャッチによる誤った指示の原則:aiの使いやすさ。 0.48
Minds and Machines 29, 4 (2019), 495–514. マインドズ・アンド・マシーン29,4 (2019), 495–514。 0.66
[82] Alan Rubel, Adam Pham, and Clinton Castro. Alan Rubel氏、Adam Pham氏、Clinton Castro氏。 0.60
2019. Agency Laundering and Algorithmic Decision Systems. 2019. エージェント・ロンダリングとアルゴリズムによる意思決定システム。 0.49
In International Conference on [83] Cynthia Rudin. 国際会議において 83] シンシア・ルディン 0.69
2019. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. 2019. 高い利害判断のためのブラックボックス機械学習モデルの説明を止めて、代わりに解釈可能なモデルを使用する。 0.52
Nature [84] Henrik Skaug Sætra. 自然 アンリク・スカーグ・セトラ(Henrik Skaug Sætra)。 0.42
2021. Confounding complexity of machine action: a hobbesian account of machine responsibility. 2021. マシンアクションの複雑さ: マシン責任に関するホッブシアンな説明。 0.59
International Journal of [85] Filippo Santoni de Sio and Jeroen Van den Hoven. 国際学術誌 フィリッポ・サントニ・デ・シオとJeroen Van den Hoven。 0.58
2018. Meaningful human control over autonomous systems: A philosophical account. 2018. 自律システムに対する有意義な人間制御:哲学的説明。 0.59
Frontiers Information. Springer, 590–598. 辺境 情報。 スプリンガー、590-598。 0.57
Machine Intelligence 1, 5 (2019), 206–215. マシンインテリジェンス1、5(2019)、206-215。 0.75
Technoethics (IJT) 12, 1 (2021), 87–100. テクノエティクス(ijt) 12, 1 (2021), 87–100。 0.70
in Robotics and AI 5 (2018), 15. ロボティクスとai5(2018年)では15。 0.56
[86] Thomas M Scanlon. [86]トーマス・m・スカンロン 0.58
2009. Moral dimensions. 2009. 道徳的な次元。 0.50
Harvard University Press. ハーバード大学出版局。 0.66
[87] Andrew D Selbst and Solon Barocas. 87] アンドリュー・d・セルブストと ソロン・バロカス 0.51
2018. The intuitive appeal of explainable machines. 2018. 説明可能な機械の直感的な魅力。 0.51
Fordham L. Rev. 87 (2018), 1085. Fordham L. Rev. 87 (2018), 1085。 0.41
[88] Ramprasaath R Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, and Dhruv Batra. [88]Ramprasaath R Selvaraju, Michael Cogswell, Abhishek Das, Ramakrishna Vedantam, Devi Parikh, Dhruv Batra。
訳抜け防止モード: [88 ]Ramprasaath R Selvaraju, Michael Cogswell, Abhishek Das, ラマクリシュナ・ヴェダンタム(Ramakrishna Vedantam)、デヴィ・パリカー(Devi Parikh)、ドゥルーヴ・バトラ(Dhruv Batra)。
0.66
2017. Grad-cam: Visual explanations from deep networks via gradient-based localization. 2017. Grad-cam: 勾配ベースのローカライゼーションによるディープネットワークからの視覚的説明。 0.50
In Proceedings of the IEEE international conference on computer vision. ieee国際コンピュータビジョン会議(ieee international conference on computer vision)に出席。 0.64
618–626. [89] David Shoemaker. 618–626. デヴィッド・シューメーカー(David Shoemaker)。 0.50
2011. Attributability, answerability, and accountability: Toward a wider theory of moral responsibility. 2011. 帰属性(attributability)、回答性( answerability)、説明責任( accountability): 道徳的責任のより広い理論に向けて。 0.47
Ethics 121, 3 (2011), Ethics 121, 3 (2011) 0.36
602–632. [90] David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, 602–632. David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai
訳抜け防止モード: 602–632. [90 ] David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert ルーカス・ベイカー、マシュー・レイ。
0.59
Adrian Bolton, et al 2017. エイドリアン・ボルトン、2017年。 0.53
Mastering the game of Go without human knowledge. 人間の知識なしに囲いのゲームをマスターする。 0.72
Nature 550, 7676 (2017), 354–359. 自然界550,7676 (2017), 354-359。 0.74
[91] Sheikh M Solaiman. シャイフ・M・ソライマン(Sheikh M Solaiman)。 0.46
2017. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy. 2017. ロボット、企業、アイドル、チンパンジーの法的な性格:正当性の探求。 0.52
Artificial Intelligence and Law 25, 2 (2017), 155–179. 人工知能と法 25, 2 (2017), 155–179. 0.50
[92] Robert Sparrow. 92]ロバート・スパロウ 0.62
2007. Killer robots. 2007. 殺人ロボット。 0.57
Journal of applied philosophy 24, 1 (2007), 62–77. 応用哲学24巻1号(2007年)、62-77頁。 0.61
[93] Bernd Carsten Stahl. ベルント・カーステン・シュタール(Bernd Carsten Stahl)。 0.40
2006. Responsible computers? 2006. 責任あるコンピューター? 0.59
A case for ascribing quasi-responsibility to computers independent of personhood or agency. 人格や機関に依存しないコンピュータに対する準責任を主張する事例。 0.64
Ethics and Information Technology 8, 4 (2006), 205–213. 倫理・情報技術8,4 (2006), 205-213。 0.57
[94] Steve Torrance. スティーブ・トーランス(Steve Torrance)。 0.57
2008. Ethics and consciousness in artificial agents. 2008. 人為的なエージェントの倫理と意識。 0.54
AI & Society 22, 4 (2008), 495–521. AI & Society 22 4 (2008), 495-521。 0.70
[95] Jacob Turner. ヤコブ・ターナー(Jacob Turner)。 0.56
2018. Robot rules: Regulating artificial intelligence. 2018. ロボットルール:人工知能の制御。 0.61
Springer. [96] Berk Ustun, Alexander Spangher, and Yang Liu. Springer 96] バーク・ウストゥン、アレクサンドル・スパンガー、ヤン・リウ。 0.38
2019. Actionable recourse in linear classification. 2019. 線形分類における行動可能な帰納法。 0.48
In Proceedings of the Conference on Fairness, 公正会議」の開催にあたって 0.59
Accountability, and Transparency. 10–19. 説明責任、透明性。 10–19. 0.53
[97] Ibo Van de Poel. [97]イボ・ヴァン・ド・ポール。 0.49
2011. The relation between forward-looking and backward-looking responsibility. 2011. 前見と後見の責任の関係。 0.51
In Moral Responsibility. Springer, 37–52. 道徳的責任。 スプリンガー、37-52。 0.51
[98] Ibo Van de Poel. イボ・ヴァン・ド・ポール(Ibo Van de Poel) 0.41
2015. Moral responsibility. 2015. 道徳的責任。 0.54
In Moral responsibility and the problem of many hands. 道徳的な責任と多くの手の問題。 0.68
Routledge, 24–61. [99] Aimee van Wynsberghe. 全24-61話。 Aimee van Wynsberghe [99] 0.32
2021. Responsible Robotics and Responsibility Attribution. 2021. 責任あるロボティクスと責任帰属。 0.58
Robotics, AI, and Humanity: Science, Ethics, and Policy (2021), ロボット、AI、人間性:科学、倫理、政策(2021年) 0.65
239. [100] Michael Veale and Frederik Zuiderveen Borgesius. 239. Michael Veale氏とFrederik Zuiderveen Borgesius氏。 0.36
2021. Demystifying the Draft EU Artificial Intelligence Act—Analysing the good, the bad, and 2021. ドラフトEU人工知能法を廃止する - 善、悪、そして分析する 0.51
the unclear elements of the proposed approach. 提案されたアプローチの 未知の要素です 0.70
Computer Law Review International 22, 4 (2021), 97–112. Computer Law Review International 22, 4 (2021), 97–112。 0.44
[101] Suresh Venkatasubramanian and Mark Alfano. 101]Suresh Venkatasubramanian氏とMark Alfano氏。 0.38
2020. The philosophical basis of algorithmic recourse. 2020. アルゴリズム的会話の哲学的基礎。 0.56
In Proceedings of the 2020 conference on 2020年国際会議の議事録において 0.71
fairness, accountability, and transparency. 公平さ、説明責任、透明性。 0.70
284–293. 17 284–293. 17 0.39
英語(論文から抽出)日本語訳スコア
FAccT ’22, June 21–24, 2022, Seoul, Republic of Korea FAccT'22, 6月21-24, 2022, ソウル, 大韓民国 0.85
Lima et al [102] Sahil Verma, John Dickerson, and Keegan Hines. limaなど。 102] サヒル・ヴェルマ、ジョン・ディッカーソン、キーガン・ハインズ 0.45
2020. Counterfactual explanations for machine learning: A review. 2020. 機械学習に関するカウンターファクトな説明: レビュー。 0.61
arXiv preprint arXiv:2010.10596 arXiv preprint arXiv:2010.10596 0.29
(2020). [103] David C Vladeck. (2020). デヴィッド・C・ヴラデック(David C Vladeck)。 0.47
2014. Machines without principals: liability rules and artificial intelligence. 2014. プライマリのないマシン:責任ルールと人工知能。 0.57
Wash. L. Rev. 89 (2014), 117. ウォッシュ。 第89巻(2014年)、117頁。 0.52
[104] Sandra Wachter, Brent Mittelstadt, and Chris Russell. Sandra Wachter氏、Brent Mittelstadt氏、Chris Russell氏。 0.59
2017. Counterfactual explanations without opening the black box: Automated decisions and 2017. ブラックボックスを開かずに説明する:意思決定の自動化 0.59
the GDPR. Harv. JL & Tech. GDPR。 ハーヴ jl&tech所属。 0.57
31 (2017), 841. 31 (2017), 841. 0.37
[105] Julie Weed. ジュリー・ウィード(Julie Weed) 0.58
2021. Résumé-Writing Tips to Help You Get Past the A.I. Gatekeepers. 2021. a.i.ゲートキーパーを乗り越えるために、resumé-writing tips。 0.48
New York Times. ニューヨーク・タイムズ 0.51
https://www.nytimes. com/2021/03/19/ https://www.nytimes. com/2021/03/19/ 0.14
business/resume-filt er-articial-intellig ence.html. business/resume-filt er-articial-intellig ence.html 0.14
18 18 0.42
                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。