論文の概要: Can AI Mitigate Human Perceptual Biases? A Pilot Study
- arxiv url: http://arxiv.org/abs/2311.00706v1
- Date: Tue, 10 Oct 2023 21:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 13:29:29.092757
- Title: Can AI Mitigate Human Perceptual Biases? A Pilot Study
- Title(参考訳): AIは人間の知覚バイアスを軽減することができるか?
パイロット研究
- Authors: Ross Geuy and Nate Rising and Tiancheng Shi, Meng Ling, Jian Chen
- Abstract要約: 可視化タスクにおいて,機械レコメンデーションが人間の偏見を損なうかどうかを測定するための実験結果を示す。
本研究では,線グラフ上のデータポイントのアンサンブル平均を推定する作業において,プルダウンの効果について検討した。
我々のパイロット研究によると、参加者はAIアシストのないベースラインに比べて、アンサンブルタスクにおけるAIアシストが速いことがわかった。
- 参考スコア(独自算出の注目度): 3.2997705040068253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present results from a pilot experiment to measure if machine
recommendations can debias human perceptual biases in visualization tasks. We
specifically studied the ``pull-down'' effect, i.e., people underestimate the
average position of lines, for the task of estimating the ensemble average of
data points in line charts. These line charts can show for example temperature
or precipitation in 12 months. Six participants estimated ensemble averages
with or without an AI assistant. The assistant, when available, responded at
three different speeds to assemble the conditions of a human collaborator who
may delay his or her responses. Our pilot study showed that participants were
faster with AI assistance in ensemble tasks, compared to the baseline without
AI assistance. Although ``pull-down'' biases were reduced, the effect of AI
assistance was not statistically significant. Also, delaying AI responses had
no significant impact on human decision accuracy. We discuss the implications
of these preliminary results for subsequent studies.
- Abstract(参考訳): 実験では,機械の推薦が人間の知覚バイアスを損なうかどうかを計測する実験を行った。
本研究では,線グラフ中のデータ点のアンサンブル平均を推定するために,線の平均位置を過小評価する「プルダウン」効果について検討した。
これらの線図は、例えば12ヶ月で温度や降水を示すことができる。
参加者6人は、AIアシスタントの有無にかかわらずアンサンブル平均を推定した。
アシスタントは、利用可能な場合は3つの異なる速度で反応し、人間の協力者の条件を組み立てる。
我々のパイロット研究によると、参加者はAIアシストのないベースラインに比べて、アンサンブルタスクにおけるAIアシストが速いことがわかった。
プルダウンバイアスは低減されたが,AI支援の効果は統計的に有意ではなかった。
また、AI応答の遅延は人間の判断精度に大きな影響を与えなかった。
これらの予備結果がその後の研究に与える影響について論じる。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Comparing Zealous and Restrained AI Recommendations in a Real-World Human-AI Collaboration Task [11.040918613968854]
正確さとリコールのトレードオフを慎重に活用することで、チームのパフォーマンスが大幅に向上する、と私たちは主張する。
我々は、a)AIアシストなし、b)高精度な「制限された」AI、c)3,466時間以上のアノテーション作業で、78のプロのアノテータのパフォーマンスを分析する。
論文 参考訳(メタデータ) (2024-10-06T23:19:19Z) - Confident Teacher, Confident Student? A Novel User Study Design for Investigating the Didactic Potential of Explanations and their Impact on Uncertainty [1.0855602842179624]
説明可能な人工知能(XAI)を用いた視覚課題における説明が人的パフォーマンスに与える影響について検討する。
アノテーションの精度が向上し、AIアシストに対する不確実性が低下していることがわかりました。
ユーザーは説明を示すと、モデルの予測をより頻繁に再現する傾向がある。
論文 参考訳(メタデータ) (2024-09-10T12:59:50Z) - HoloAssist: an Egocentric Human Interaction Dataset for Interactive AI
Assistants in the Real World [48.90399899928823]
この研究は、物理的な世界でのタスクを実行することで人間を対話的に導くインテリジェントエージェントを開発するための、より広範な研究努力の一環である。
大規模なエゴセントリックなヒューマンインタラクションデータセットであるHoloAssistを紹介する。
人間のアシスタントがミスを正し、タスク完了手順に介入し、環境に指示を下す方法について、重要な知見を提示する。
論文 参考訳(メタデータ) (2023-09-29T07:17:43Z) - Understanding the Effect of Counterfactual Explanations on Trust and
Reliance on AI for Human-AI Collaborative Clinical Decision Making [5.381004207943597]
本研究は,7人のセラピストと10人のレイパーを対象に,ストローク後生存者の運動の質を評価するための実験を行った。
我々は2種類のAI説明なしで、彼らのパフォーマンス、タスクの合意レベル、AIへの依存を分析した。
我々の研究は、AIモデルの精度をより正確に見積り、間違ったAI出力に対する過度な信頼を減らすために、反事実的説明の可能性について論じている。
論文 参考訳(メタデータ) (2023-08-08T16:23:46Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Understanding the Effect of Out-of-distribution Examples and Interactive
Explanations on Human-AI Decision Making [19.157591744997355]
典型的な実験的なセットアップは、人間-AIチームの可能性を制限します。
インタラクティブな説明を支援する新しいインターフェースを開発し、人間がAI支援に積極的に取り組みます。
論文 参考訳(メタデータ) (2021-01-13T19:01:32Z) - Does the Whole Exceed its Parts? The Effect of AI Explanations on
Complementary Team Performance [44.730580857733]
以前の研究では、AIが人間と最高のチームの両方を上回った場合にのみ、説明による改善が観察された。
我々は、3つのデータセットで混合メソッドのユーザー研究を行い、人間に匹敵する精度のAIが、参加者のタスク解決に役立ちます。
説明は、人間がAIの推奨を受け入れる可能性を高める。
論文 参考訳(メタデータ) (2020-06-26T03:34:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。