論文の概要: Non-Asimov Explanations Regulating AI through Transparency
- arxiv url: http://arxiv.org/abs/2111.13041v1
- Date: Thu, 25 Nov 2021 11:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 21:49:47.615644
- Title: Non-Asimov Explanations Regulating AI through Transparency
- Title(参考訳): 透明性によるAIの非アシモフ説明
- Authors: Chris Reed, Keri Grieman, Joseph Early
- Abstract要約: 法律は、現実的および潜在的な失敗についての説明を要求する。
法と規制は物語の説明と物語を求めている。
技術者は、どんな法律や規制が使えるかを教えてくれる方法を見つける必要がある。
- 参考スコア(独自算出の注目度): 4.206831611888504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important part of law and regulation is demanding explanations for actual
and potential failures. We ask questions like: What happened (or might happen)
to cause this failure? And why did (or might) it happen? These are disguised
normative questions - they really ask what ought to have happened, and how the
humans involved ought to have behaved. To answer the normative questions, law
and regulation seeks a narrative explanation, a story. At present, we seek
these kinds of narrative explanation from AI technology, because as humans we
seek to understand technology's working through constructing a story to explain
it. Our cultural history makes this inevitable - authors like Asimov, writing
narratives about future AI technologies like intelligent robots, have told us
that they act in ways explainable by the narrative logic which we use to
explain human actions and so they can also be explained to us in those terms.
This is, at least currently, not true. This work argues that we can only solve
this problem by working from both sides. Technologists will need to find ways
to tell us stories which law and regulation can use. But law and regulation
will also need to accept different kinds of narratives, which tell stories
about fundamental legal and regulatory concepts like fairness and
reasonableness that are different from those we are used to.
- Abstract(参考訳): 法律と規制の重要な部分は、現実および潜在的な失敗についての説明を要求することである。
この失敗を引き起こすために何が起こったのか(あるいは起こり得るのか)?
そして、なぜ(あるいは)そうなったのか?
彼らは本当に何が起こるべきか、そして関係する人間がどのように振る舞うべきなのかを尋ねます。
規範的な問いに答えるために、法と規制は物語の説明、物語を求める。
現在、私たちはAI技術からこのような物語の説明を求めています。なぜなら、人間として私たちは、それを説明するストーリーを構築することで、テクノロジーの動作を理解しようとしているからです。
アシモフのような著者は、知的なロボットのような未来のAI技術についての物語を書いており、人間の行動を説明するために私たちが使っている物語論理によって説明可能な方法で行動し、その言葉で説明することができると私たちに話してくれた。
これは、少なくとも現時点では、真実ではない。
この研究は、両側から作業することでのみこの問題を解決できると主張している。
技術者は、どんな法律や規制が使えるかを教えてくれる方法を見つける必要がある。
しかし法律と規制はまた、我々が慣れ親しんだものと異なる公平さや合理的さといった基本的な法的および規制的な概念についての物語を語る、異なる種類の物語を受け入れる必要がある。
関連論文リスト
- Epistemic considerations when AI answers questions for us [0.0]
我々は、我々の質問に答え、アウトプットを判断するためにAIに不注意に依存することは、グレースの「品質の最大」と「レモインの法的な「無実の最高」に違反していると主張している。
AIが生成し、AIが評価したコンテンツのアウトプットと結果に重点を置いていないのは、適切なトリビュートを支払うことを除けば、人の思考プロセスに従うことの要求である。
論文 参考訳(メタデータ) (2023-04-23T08:26:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - "Mama Always Had a Way of Explaining Things So I Could Understand'': A
Dialogue Corpus for Learning to Construct Explanations [26.540485804067536]
対話的説明の最初のコーパスを導入し,人間の説明の仕方についてNLP研究を可能にする。
コーパスは、Wiredのテレビシリーズ『emph5 Levels』の65の英訳対話からなり、13のトピックと5人の熟練者について解説している。
論文 参考訳(メタデータ) (2022-09-06T14:00:22Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Post-Hoc Explanations Fail to Achieve their Purpose in Adversarial
Contexts [12.552080951754963]
既存の計画された法律は、機械学習アルゴリズムに関する情報を提供するための様々な義務を規定している。
多くの研究者がこの目的のためにポストホックな説明アルゴリズムを使うことを提案する。
法則の目的を達成するには,ポストホックな説明アルゴリズムが適さないことを示す。
論文 参考訳(メタデータ) (2022-01-25T13:12:02Z) - How Should AI Interpret Rules? A Defense of Minimally Defeasible
Interpretive Argumentation [0.0]
現実世界のルールは、必然的にオープンテクスチャの用語で区切られている。
このようなルールに従う能力、そしてそれらについて考える能力は、最初の分析で見られるほど明確ではない。
ルールに従うAIは、最小限の解釈可能な議論によって最も支持される解釈に従って行動すべきである。
論文 参考訳(メタデータ) (2021-10-26T00:58:05Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Comparing Visual Reasoning in Humans and AI [66.89451296340809]
人間の行動や社会的相互作用を含む複雑なシーンのデータセットを作成しました。
ai/ヒューマンのシーン記述と、各シーンの他の5つの人間記述の地上真実との類似度を定量的に測定した。
結果は、機械/人間の合意シーンの説明は、私たちの複雑なシーンの人間/人間の合意よりもはるかに低いことを示しています。
論文 参考訳(メタデータ) (2021-04-29T04:44:13Z) - Explainable Artificial Intelligence and Machine Learning: A reality
rooted perspective [0.0]
説明可能なAIとは何か,という議論があります。
我々は、希望的な思考ではなく、物理学以外の科学理論に関連して、現実的な基礎的特性を提示する。
論文 参考訳(メタデータ) (2020-01-26T15:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。