論文の概要: What's the Problem, Linda? The Conjunction Fallacy as a Fairness Problem
- arxiv url: http://arxiv.org/abs/2305.09535v1
- Date: Tue, 16 May 2023 15:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:18:59.364516
- Title: What's the Problem, Linda? The Conjunction Fallacy as a Fairness Problem
- Title(参考訳): 何が問題なのか、Linda?
フェアネス問題としての接続不良
- Authors: Jose Alvarez Colmenares
- Abstract要約: 我々はリンダ問題を再検討し、公平性問題として定式化する。
構造的因果認識の枠組みを通じて、関心のパラメータとして知覚を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Artificial Intelligence (AI) is focusing on creating automated
decision-making (ADM) systems that operate as close as possible to human-like
intelligence. This effort has pushed AI researchers into exploring cognitive
fields like psychology. The work of Daniel Kahneman and the late Amos Tversky
on biased human decision-making, including the study of the conjunction
fallacy, has experienced a second revival because of this. Under the
conjunction fallacy a human decision-maker will go against basic probability
laws and rank as more likely a conjunction over one of its parts. It has been
proven overtime through a set of experiments with the Linda Problem being the
most famous one. Although this interdisciplinary effort is welcomed, we fear
that AI researchers ignore the driving force behind the conjunction fallacy as
captured by the Linda Problem: the fact that Linda must be stereotypically
described as a woman. In this paper we revisit the Linda Problem and formulate
it as a fairness problem. In doing so we introduce perception as a parameter of
interest through the structural causal perception framework. Using an
illustrative decision-making example, we showcase the proposed conceptual
framework and its potential impact for developing fair ADM systems.
- Abstract(参考訳): 人工知能(AI)の分野は、人間のような知性に可能な限り近い自動意思決定(ADM)システムを作ることに注力している。
この取り組みにより、AI研究者は心理学のような認知分野を探求した。
ダニエル・カーネマン(Daniel Kahneman)とアモス・トヴェルスキー(Amos Tversky)の研究は、共同誤認の研究を含む偏見のある人間の意思決定に関するものである。
合理化の失敗の下では、人間の意思決定者は基本的確率法に反し、その部分の1つよりも協力的になる可能性が高い。
リンダ問題を最も有名な問題とする一連の実験によって、残業が証明されている。
この学際的な取り組みは歓迎されているが、我々はai研究者がリンダ問題によって捉えられた結合誤認の背後にある駆動力を無視していることを恐れている。
本稿では,リンダ問題を再検討し,公平性問題として定式化する。
そこで我々は,構造的因果知覚の枠組みを通して,関心のパラメータとして知覚を導入する。
実証的意思決定例を用いて,提案する概念枠組みとそのfair admシステム開発への潜在的影響について紹介する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - The role of causality in explainable artificial intelligence [1.049712834719005]
因果性(Causality)とeXplainable Artificial Intelligence(XAI)は、コンピュータ科学の別分野として開発された。
文献を調査し,どの程度因果関係とXAIが絡み合っているかを理解する。
論文 参考訳(メタデータ) (2023-09-18T16:05:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of Heuristics and Biases During Complex Choices with an AI
Teammate [0.0]
古典的な実験手法は、AIヘルパーによる複雑な選択を研究するには不十分である、と我々は主張する。
我々は、フレーミングとアンカー効果が、人々がAIヘルパーと一緒に働く方法に影響を与え、選択結果を予測することを示した。
論文 参考訳(メタデータ) (2023-01-14T20:06:43Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - AI and the Sense of Self [0.0]
我々は、自己の認知的感覚と、責任ある行動につながる自律的な意思決定におけるその役割に焦点を当てる。
著者らは、AIエージェントのよりリッチな計算モデルを構築することに、より研究的な関心を抱くことを期待している。
論文 参考訳(メタデータ) (2022-01-07T10:54:06Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。