論文の概要: Unexplainability of Artificial Intelligence Judgments in Kant's Perspective
- arxiv url: http://arxiv.org/abs/2407.18950v1
- Date: Fri, 12 Jul 2024 03:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 01:06:22.461031
- Title: Unexplainability of Artificial Intelligence Judgments in Kant's Perspective
- Title(参考訳): Kantの立場から見た人工知能判断の不明瞭性
- Authors: Jongwoo Seo,
- Abstract要約: 本稿は,AI判断が人間の判断の特性の観点から理解できない形態を示すものであることを論じる。
物理述語を含まない概念は、視覚を通して関数が示されるときの説明が簡単でないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kant's Critique of Pure Reason, a major contribution to the history of epistemology, proposes a table of categories to elucidate the structure of the a priori principle of human judgment. The technology of artificial intelligence (AI), based on functionalism, claims to simulate or replicate human judgment. To assess this claim, it is necessary to study whether AI judgment possesses the characteristics of human judgment. This paper argues that AI judgments exhibit a form that cannot be understood in terms of the characteristics of human judgments according to Kant. Because the characteristics of judgment overlap, we can call this AI's uncertainty. Then, I show that concepts without physical intuitions are not easy to explain when their functions are shown through vision. Finally, I illustrate that even if AI makes sentences through subject and predicate in natural language, which are components of judgment, it is difficult to determine whether AI understands the concepts to the level humans can accept. This shows that it is questionable whether the explanation through natural language is reliable.
- Abstract(参考訳): カントの純粋推論批判は、認識論の歴史に大きく貢献し、人間の判断の先駆的な原理の構造を解明するためのカテゴリの表を提案している。
人工知能(AI)の技術は機能主義に基づいて、人間の判断をシミュレートまたは再現すると主張している。
この主張を評価するためには、AI判断が人間の判断の特徴を持っているかどうかを検討する必要がある。
本稿は,AI判断が人間の判断の特性の観点から理解できない形態を示すものであることを論じる。
判断の特性が重なるので、このAIの不確実性と呼ぶことができる。
そして,身体的な直観のない概念は,視覚を通して機能を示すときの説明が困難であることを示す。
最後に、AIが主語を通して文章を作成し、判断の要素である自然言語で述語するとしても、AIが人間が受け入れられるレベルの概念を理解しているかどうかを判断することは困難である、と説明する。
これは、自然言語による説明が信頼できるかどうかが疑問であることを示している。
関連論文リスト
- A.I. go by many names: towards a sociotechnical definition of artificial intelligence [0.0]
人工知能(AI)の定義は永続的な課題であり、技術的曖昧さと様々な解釈に悩まされることが多い。
このエッセイは、研究に明快さを必要とする研究者にとって不可欠である、AIの社会技術的定義を論証するものである。
論文 参考訳(メタデータ) (2024-10-17T11:25:50Z) - Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Some Critical and Ethical Perspectives on the Empirical Turn of AI
Interpretability [0.0]
我々は、現在人工知能開発で直面している2つの問題、すなわち、倫理の欠如とAI決定の解釈可能性の欠如について考察する。
実験により,説明書作成の実証的かつリベラルな転換は,否定力の低いAI説明を選択する傾向にあることを示した。
我々は、倫理的AIの今後の発展のためのシナリオとして、より外部規制やAI説明の自由化の2つを提案する。
論文 参考訳(メタデータ) (2021-09-20T14:41:50Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。