論文の概要: The Technology of Outrage: Bias in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2409.17336v1
- Date: Wed, 25 Sep 2024 20:23:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-30 12:15:34.915791
- Title: The Technology of Outrage: Bias in Artificial Intelligence
- Title(参考訳): 怒りのテクノロジー:人工知能のバイアス
- Authors: Will Bridewell, Paul F. Bello, Selmer Bringsjord,
- Abstract要約: 人工知能と機械学習は、人々の意思決定をオフロードするためにますます使われています。
過去において、この代替の根拠の1つは、機械が人間と違って公平で偏見のないものになることである。
アルゴリズム的偏見に対して人々が感情的に反応する場合、我々は怒り、知性、道徳、政治の3つの形態を識別する。
- 参考スコア(独自算出の注目度): 1.2289361708127877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence and machine learning are increasingly used to offload decision making from people. In the past, one of the rationales for this replacement was that machines, unlike people, can be fair and unbiased. Evidence suggests otherwise. We begin by entertaining the ideas that algorithms can replace people and that algorithms cannot be biased. Taken as axioms, these statements quickly lead to absurdity. Spurred on by this result, we investigate the slogans more closely and identify equivocation surrounding the word 'bias.' We diagnose three forms of outrage-intellectual, moral, and political-that are at play when people react emotionally to algorithmic bias. Then we suggest three practical approaches to addressing bias that the AI community could take, which include clarifying the language around bias, developing new auditing methods for intelligent systems, and building certain capabilities into these systems. We conclude by offering a moral regarding the conversations about algorithmic bias that may transfer to other areas of artificial intelligence.
- Abstract(参考訳): 人工知能と機械学習は、人々の意思決定をオフロードするためにますます使われています。
過去において、この代替の根拠の1つは、人間と違って機械が公平で偏見のないものになることである。
証拠は別として示唆される。
まずは、アルゴリズムが人を置き換えることができ、アルゴリズムに偏見がないという考えを楽しませることから始めます。
公理として考えれば、これらの主張はすぐに不条理に繋がる。
この結果から, スローガンをより精査し, 「バイアス」という単語を取り巻く同義語を同定した。
アルゴリズムの偏見に感情的に反応する場合、我々は、怒り、知性、道徳、政治的3つの形態を診断する。
バイアスに関する言語を明確にし、インテリジェントシステムのための新しい監査方法を開発し、これらのシステムに特定の機能を構築することを含む。
我々は、アルゴリズムバイアスに関する会話に関するモラルを提供することで、人工知能の他の領域に移る可能性があると結論付けている。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Un jeu a debattre pour sensibiliser a l'Intelligence Artificielle dans
le contexte de la pandemie de COVID-19 [0.0]
我々は,パンデミックを制御するためのAIソリューションの選択を目的とした市民討論という形で,真剣なゲームを提案する。
このゲームは高校生をターゲットにしており、科学フェアで初めて実験され、現在は無料で利用できる。
論文 参考訳(メタデータ) (2023-04-19T09:06:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z) - Taking the Intentional Stance Seriously: A Guide to Progress in
Artificial Intelligence [0.0]
それぞれのユニークなツールの仕組みに関するメンタルモデルを構築しているのです。
本稿では,この主張を明確にする意図の命題的態度を精査する。
論文 参考訳(メタデータ) (2022-09-21T13:38:23Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。