論文の概要: "AI enhances our performance, I have no doubt this one will do the
same": The Placebo effect is robust to negative descriptions of AI
- arxiv url: http://arxiv.org/abs/2309.16606v2
- Date: Tue, 23 Jan 2024 10:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 19:04:24.371765
- Title: "AI enhances our performance, I have no doubt this one will do the
same": The Placebo effect is robust to negative descriptions of AI
- Title(参考訳): 「AIはパフォーマンスを高め、これも同じことをすることは間違いない」:Placebo効果はAIの否定的な記述に対して堅牢である
- Authors: Agnes M. Kloft, Robin Welsch, Thomas Kosch, Steeven Villa
- Abstract要約: 高度なAI期待は、プラセボ効果を通じて人間とAIのインタラクションのパフォーマンスを促進する。
ユーザの期待がAIインタラクションや評価に与える影響について論じる。
- 参考スコア(独自算出の注目度): 18.760251521240892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Heightened AI expectations facilitate performance in human-AI interactions
through placebo effects. While lowering expectations to control for placebo
effects is advisable, overly negative expectations could induce nocebo effects.
In a letter discrimination task, we informed participants that an AI would
either increase or decrease their performance by adapting the interface, but in
reality, no AI was present in any condition. A Bayesian analysis showed that
participants had high expectations and performed descriptively better
irrespective of the AI description when a sham-AI was present. Using cognitive
modeling, we could trace this advantage back to participants gathering more
information. A replication study verified that negative AI descriptions do not
alter expectations, suggesting that performance expectations with AI are biased
and robust to negative verbal descriptions. We discuss the impact of user
expectations on AI interactions and evaluation and provide a behavioral placebo
marker for human-AI interaction
- Abstract(参考訳): 高度なAI期待は、プラセボ効果を通じて人間とAIのインタラクションのパフォーマンスを促進する。
プラセボ効果に対する期待を下げることは望ましいが、過剰にネガティブな期待はノセボ効果を引き起こす可能性がある。
文字識別タスクでは、AIがインターフェースを適用することによってパフォーマンスを向上または低下させるであろうと参加者に通知しましたが、実際にはどんな状態でもAIは存在していません。
ベイズ分析の結果,シェームAIが存在するときのAI記述によらず,参加者は高い期待を抱き,記述的に優れていることがわかった。
認知モデリングを使うことで、この利点をより多くの情報を集める参加者にさかのぼることができる。
レプリケーション調査では、否定的なAI記述は期待を変更せず、AIによるパフォーマンス期待はバイアスがあり、否定的な言語記述に対して堅牢であることを示唆している。
ユーザの期待がAIインタラクションと評価に与える影響を議論し、人間とAIインタラクションのための行動プラセボマーカーを提供する。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Understanding the Effect of Counterfactual Explanations on Trust and
Reliance on AI for Human-AI Collaborative Clinical Decision Making [5.381004207943597]
本研究は,7人のセラピストと10人のレイパーを対象に,ストローク後生存者の運動の質を評価するための実験を行った。
我々は2種類のAI説明なしで、彼らのパフォーマンス、タスクの合意レベル、AIへの依存を分析した。
我々の研究は、AIモデルの精度をより正確に見積り、間違ったAI出力に対する過度な信頼を減らすために、反事実的説明の可能性について論じている。
論文 参考訳(メタデータ) (2023-08-08T16:23:46Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Does the Whole Exceed its Parts? The Effect of AI Explanations on
Complementary Team Performance [44.730580857733]
以前の研究では、AIが人間と最高のチームの両方を上回った場合にのみ、説明による改善が観察された。
我々は、3つのデータセットで混合メソッドのユーザー研究を行い、人間に匹敵する精度のAIが、参加者のタスク解決に役立ちます。
説明は、人間がAIの推奨を受け入れる可能性を高める。
論文 参考訳(メタデータ) (2020-06-26T03:34:04Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。