論文の概要: Epistemic considerations when AI answers questions for us
- arxiv url: http://arxiv.org/abs/2304.14352v1
- Date: Sun, 23 Apr 2023 08:26:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 12:23:59.304151
- Title: Epistemic considerations when AI answers questions for us
- Title(参考訳): AIが私たちの質問に答える際の疫学的考察
- Authors: Johan F. Hoorn and Juliet J.-Y. Chen
- Abstract要約: 我々は、我々の質問に答え、アウトプットを判断するためにAIに不注意に依存することは、グレースの「品質の最大」と「レモインの法的な「無実の最高」に違反していると主張している。
AIが生成し、AIが評価したコンテンツのアウトプットと結果に重点を置いていないのは、適切なトリビュートを支払うことを除けば、人の思考プロセスに従うことの要求である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this position paper, we argue that careless reliance on AI to answer our
questions and to judge our output is a violation of Grice's Maxim of Quality as
well as a violation of Lemoine's legal Maxim of Innocence, performing an
(unwarranted) authority fallacy, and while lacking assessment signals,
committing Type II errors that result from fallacies of the inverse. What is
missing in the focus on output and results of AI-generated and AI-evaluated
content is, apart from paying proper tribute, the demand to follow a person's
thought process (or a machine's decision processes). In deliberately avoiding
Neural Networks that cannot explain how they come to their conclusions, we
introduce logic-symbolic inference to handle any possible epistemics any human
or artificial information processor may have. Our system can deal with various
belief systems and shows how decisions may differ for what is true, false,
realistic, unrealistic, literal, or anomalous. As is, stota AI such as ChatGPT
is a sorcerer's apprentice.
- Abstract(参考訳): 本稿では,AIに不注意に頼って質問に答え,アウトプットを判断することは,グレースの「品質の最大性」に反するだけでなく,レモインの法的な「無実の最高性」に反するものであり,(不当な)権威の誤用を行い,評価信号が欠如しているにもかかわらず,逆の誤認から生じるタイプIIエラーを犯すことである,と論じる。
AI生成およびAI評価されたコンテンツの出力と結果に重点を置いていないのは、適切なトリビュートを支払うこととは別に、人の思考プロセス(またはマシンの決定プロセス)に従うことの要求である。
その結論を説明できないニューラルネットワークを避けるために,人間や人工情報処理装置が持つ可能性のある認識論を扱うために,論理記号推論を導入する。
我々のシステムは、様々な信念システムに対処でき、真、偽、現実、非現実、リテラル、または異常について意思決定がどのように異なるかを示す。
同様に、ChatGPTのようなストータAIは、魔術師の見習いである。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Some Critical and Ethical Perspectives on the Empirical Turn of AI
Interpretability [0.0]
我々は、現在人工知能開発で直面している2つの問題、すなわち、倫理の欠如とAI決定の解釈可能性の欠如について考察する。
実験により,説明書作成の実証的かつリベラルな転換は,否定力の低いAI説明を選択する傾向にあることを示した。
我々は、倫理的AIの今後の発展のためのシナリオとして、より外部規制やAI説明の自由化の2つを提案する。
論文 参考訳(メタデータ) (2021-09-20T14:41:50Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Playing the Blame Game with Robots [0.0]
私たちは、人々が無謀な文脈でAIシステムに道徳的責任を負うことを喜んでいることに気付きました。
AIシステムの計算技術が高度になればなるほど、非難は人間のユーザからAIシステムへとシフトする。
論文 参考訳(メタデータ) (2021-02-08T20:53:42Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。