論文の概要: Trucks Don't Mean Trump: Diagnosing Human Error in Image Analysis
- arxiv url: http://arxiv.org/abs/2205.07333v1
- Date: Sun, 15 May 2022 17:06:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 17:37:46.422042
- Title: Trucks Don't Mean Trump: Diagnosing Human Error in Image Analysis
- Title(参考訳): トラックはトランプのことではなく、画像分析で人間のミスを診断する
- Authors: J.D. Zamfirescu-Pereira, Jerry Chen, Emily Wen, Allison Koenecke,
Nikhil Garg, Emma Pierson
- Abstract要約: 私たちは、2020年の米大統領選でドナルド・トランプとジョー・バイデンに投票した地区について、16,135,392人の予測のユニークなデータセットを活用しています。
本研究では,各画像に対するベイズ最適決定の機械学習推定器を訓練することにより,人間の誤りをバイアス,分散,ノイズ項に分解できることを示す。
- 参考スコア(独自算出の注目度): 5.214541594881192
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithms provide powerful tools for detecting and dissecting human bias and
error. Here, we develop machine learning methods to to analyze how humans err
in a particular high-stakes task: image interpretation. We leverage a unique
dataset of 16,135,392 human predictions of whether a neighborhood voted for
Donald Trump or Joe Biden in the 2020 US election, based on a Google Street
View image. We show that by training a machine learning estimator of the Bayes
optimal decision for each image, we can provide an actionable decomposition of
human error into bias, variance, and noise terms, and further identify specific
features (like pickup trucks) which lead humans astray. Our methods can be
applied to ensure that human-in-the-loop decision-making is accurate and fair
and are also applicable to black-box algorithmic systems.
- Abstract(参考訳): アルゴリズムは、人間のバイアスとエラーを検出して解剖する強力なツールを提供する。
そこで本研究では,特定のタスクにおいて人間がどのようにerrを行うかを分析するための機械学習手法である画像解釈を開発した。
私たちは、2020年の米大統領選でドナルド・トランプ候補かジョー・バイデン候補に投票した地区の人的予測を、Googleストリートビューの画像に基づいて16,135,392件のデータセットを活用しています。
本研究では,各画像に対するベイズ最適決定の機械学習推定器を訓練することにより,人間の誤りをバイアス,分散,ノイズ項に分解し,さらに人体を軌道に乗せる特定の特徴(ピックアップトラックなど)を識別できることを示す。
提案手法は,人間のループ内意思決定が正確かつ公平であり,ブラックボックスのアルゴリズムシステムにも適用可能である。
関連論文リスト
- Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - Extracting Human Attention through Crowdsourced Patch Labeling [18.947126675569667]
画像分類では、データセットのバイアスから重大な問題が生じる。
このようなバイアスを軽減する1つのアプローチは、モデルが対象物の位置に注意を向けることである。
本稿では,画像から人の注意を捉えるために,クラウドソーシングとAI支援を統合した新しいパッチラベル手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T07:57:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - Discover the Unknown Biased Attribute of an Image Classifier [39.78368221108767]
最近の研究では、AIアルゴリズムはデータからバイアスを学習する。
AIアルゴリズムのバイアスを特定することは緊急かつ不可欠である。
以前のバイアス識別パイプラインは、潜在的なバイアスを推測するために人間の専門家に依存している。
論文 参考訳(メタデータ) (2021-04-29T17:59:30Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - How human judgment impairs automated deception detection performance [0.5660207256468972]
教師付き機械学習と人間の判断を組み合わせることで、偽造検出精度が向上するかどうかを検証した。
ハイブリッドオーバールール決定による人間の関与は、精度をチャンスレベルに戻した。
人間の意思決定戦略は、真実の偏見(相手が真実を語る傾向)が有害な影響を説明できることを示唆している。
論文 参考訳(メタデータ) (2020-03-30T10:06:36Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。