論文の概要: Non-Asimov Explanations Regulating AI through Transparency
- arxiv url: http://arxiv.org/abs/2111.13041v1
- Date: Thu, 25 Nov 2021 11:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 21:49:47.615644
- Title: Non-Asimov Explanations Regulating AI through Transparency
- Title(参考訳): 透明性によるAIの非アシモフ説明
- Authors: Chris Reed, Keri Grieman, Joseph Early
- Abstract要約: 法律は、現実的および潜在的な失敗についての説明を要求する。
法と規制は物語の説明と物語を求めている。
技術者は、どんな法律や規制が使えるかを教えてくれる方法を見つける必要がある。
- 参考スコア(独自算出の注目度): 4.206831611888504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important part of law and regulation is demanding explanations for actual
and potential failures. We ask questions like: What happened (or might happen)
to cause this failure? And why did (or might) it happen? These are disguised
normative questions - they really ask what ought to have happened, and how the
humans involved ought to have behaved. To answer the normative questions, law
and regulation seeks a narrative explanation, a story. At present, we seek
these kinds of narrative explanation from AI technology, because as humans we
seek to understand technology's working through constructing a story to explain
it. Our cultural history makes this inevitable - authors like Asimov, writing
narratives about future AI technologies like intelligent robots, have told us
that they act in ways explainable by the narrative logic which we use to
explain human actions and so they can also be explained to us in those terms.
This is, at least currently, not true. This work argues that we can only solve
this problem by working from both sides. Technologists will need to find ways
to tell us stories which law and regulation can use. But law and regulation
will also need to accept different kinds of narratives, which tell stories
about fundamental legal and regulatory concepts like fairness and
reasonableness that are different from those we are used to.
- Abstract(参考訳): 法律と規制の重要な部分は、現実および潜在的な失敗についての説明を要求することである。
この失敗を引き起こすために何が起こったのか(あるいは起こり得るのか)?
そして、なぜ(あるいは)そうなったのか?
彼らは本当に何が起こるべきか、そして関係する人間がどのように振る舞うべきなのかを尋ねます。
規範的な問いに答えるために、法と規制は物語の説明、物語を求める。
現在、私たちはAI技術からこのような物語の説明を求めています。なぜなら、人間として私たちは、それを説明するストーリーを構築することで、テクノロジーの動作を理解しようとしているからです。
アシモフのような著者は、知的なロボットのような未来のAI技術についての物語を書いており、人間の行動を説明するために私たちが使っている物語論理によって説明可能な方法で行動し、その言葉で説明することができると私たちに話してくれた。
これは、少なくとも現時点では、真実ではない。
この研究は、両側から作業することでのみこの問題を解決できると主張している。
技術者は、どんな法律や規制が使えるかを教えてくれる方法を見つける必要がある。
しかし法律と規制はまた、我々が慣れ親しんだものと異なる公平さや合理的さといった基本的な法的および規制的な概念についての物語を語る、異なる種類の物語を受け入れる必要がある。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Explanation Hacking: The perils of algorithmic recourse [2.967024581564439]
我々は、リコメンデーションの説明がいくつかの概念的な落とし穴に直面しており、問題のある説明ハッキングにつながると論じている。
代替として、AI決定の説明は理解を目的とすべきである、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-22T12:49:28Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - "Mama Always Had a Way of Explaining Things So I Could Understand'': A
Dialogue Corpus for Learning to Construct Explanations [26.540485804067536]
対話的説明の最初のコーパスを導入し,人間の説明の仕方についてNLP研究を可能にする。
コーパスは、Wiredのテレビシリーズ『emph5 Levels』の65の英訳対話からなり、13のトピックと5人の熟練者について解説している。
論文 参考訳(メタデータ) (2022-09-06T14:00:22Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts [12.552080951754963]
既存の計画された法律は、機械学習アルゴリズムに関する情報を提供するための様々な義務を規定している。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
法則の目的を達成するには,ポストホックな説明アルゴリズムが適さないことを示す。
論文 参考訳(メタデータ) (2022-01-25T13:12:02Z) - How Should AI Interpret Rules? A Defense of Minimally Defeasible
Interpretive Argumentation [0.0]
現実世界のルールは、必然的にオープンテクスチャの用語で区切られている。
このようなルールに従う能力、そしてそれらについて考える能力は、最初の分析で見られるほど明確ではない。
ルールに従うAIは、最小限の解釈可能な議論によって最も支持される解釈に従って行動すべきである。
論文 参考訳(メタデータ) (2021-10-26T00:58:05Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable Artificial Intelligence and Machine Learning: A reality
rooted perspective [0.0]
説明可能なAIとは何か,という議論があります。
我々は、希望的な思考ではなく、物理学以外の科学理論に関連して、現実的な基礎的特性を提示する。
論文 参考訳(メタデータ) (2020-01-26T15:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。