論文の概要: Cognitive Anthropomorphism of AI: How Humans and Computers Classify
Images
- arxiv url: http://arxiv.org/abs/2002.03024v1
- Date: Fri, 7 Feb 2020 21:49:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:08:17.429497
- Title: Cognitive Anthropomorphism of AI: How Humans and Computers Classify
Images
- Title(参考訳): aiの認知的擬人化:人間とコンピュータによる画像分類
- Authors: Shane T. Mueller
- Abstract要約: 人間は認知人類同型(英: Cognitive anthropomorphism)、つまりAIが人間の知性と同じ性質を持つことを期待する。
このミスマッチは、適切な人間とAIの相互作用に障害をもたらす。
私は、人間とAIの分類のミスマッチに対処できるシステム設計に3つの戦略を提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern AI image classifiers have made impressive advances in recent years,
but their performance often appears strange or violates expectations of users.
This suggests humans engage in cognitive anthropomorphism: expecting AI to have
the same nature as human intelligence. This mismatch presents an obstacle to
appropriate human-AI interaction. To delineate this mismatch, I examine known
properties of human classification, in comparison to image classifier systems.
Based on this examination, I offer three strategies for system design that can
address the mismatch between human and AI classification: explainable AI, novel
methods for training users, and new algorithms that match human cognition.
- Abstract(参考訳): 現代のai画像分類器は近年目覚ましい進歩を遂げているが、その性能はしばしば奇妙に見えるか、ユーザーの期待に反している。
これは、AIが人間の知性と同じ性質を持つことを期待している。
このミスマッチは、適切な人間とAIの相互作用に障害をもたらす。
このミスマッチについて,画像分類システムと比較して,人間の分類の既知の特性について検討した。
この試験に基づいて、人間とAIの分類のミスマッチに対処できるシステム設計のための3つの戦略:説明可能なAI、ユーザーを訓練するための新しい方法、人間の認知にマッチする新しいアルゴリズムを提供する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Human-Modeling in Sequential Decision-Making: An Analysis through the Lens of Human-Aware AI [20.21053807133341]
私たちは、人間を意識したAIシステムを構成するものの説明を提供しようとしています。
人間を意識したAIはデザイン指向のパラダイムであり、人間と対話するかもしれないモデリングの必要性に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-13T14:17:52Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。