論文の概要: Right, No Matter Why: AI Fact-checking and AI Authority in
Health-related Inquiry Settings
- arxiv url: http://arxiv.org/abs/2310.14358v1
- Date: Sun, 22 Oct 2023 16:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 00:23:27.688849
- Title: Right, No Matter Why: AI Fact-checking and AI Authority in
Health-related Inquiry Settings
- Title(参考訳): AI Fact-checking and AI Authority in Health-related Inquiry Sets
- Authors: Elena Sergeeva, Anastasia Sergeeva, Huiyun Tang, Kerstin
Bongard-Blanchy, Peter Szolovits
- Abstract要約: 健康関連文の真偽を評価する際に,ユーザのAI対応行動の評価を行う。
AIはステートメントが偽/真であると信じている”というだけに制限されたフィードバックでさえ、半数以上の人がステートメントアセスメントをAIの提案に移行していることがわかったのです。
- 参考スコア(独自算出の注目度): 6.479999334029941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous research on expert advice-taking shows that humans exhibit two
contradictory behaviors: on the one hand, people tend to overvalue their own
opinions undervaluing the expert opinion, and on the other, people often defer
to other people's advice even if the advice itself is rather obviously wrong.
In our study, we conduct an exploratory evaluation of users' AI-advice
accepting behavior when evaluating the truthfulness of a health-related
statement in different "advice quality" settings. We find that even feedback
that is confined to just stating that "the AI thinks that the statement is
false/true" results in more than half of people moving their statement veracity
assessment towards the AI suggestion. The different types of advice given
influence the acceptance rates, but the sheer effect of getting a suggestion is
often bigger than the suggestion-type effect.
- Abstract(参考訳): 専門家のアドバイステイクに関する以前の研究によると、人間は2つの矛盾した行動を示す。一方、人々は専門家の意見を過大評価する傾向にあり、他方では、アドバイス自体が明らかに間違っているとしても、他人のアドバイスを軽視する傾向にある。
本研究では,健康関連文の真偽を異なる「製品品質」設定で評価する際に,利用者のAI対応行動の探索的評価を行う。
AIはステートメントが偽/真であると信じている”というだけに制限されたフィードバックでさえ、半数以上の人がステートメントの正確性評価をAIの提案に移行しているのです。
アドバイスの異なるタイプは受け入れ率に影響を与えるが、提案を受けることによる影響は提案型効果よりも大きいことが多い。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Does More Advice Help? The Effects of Second Opinions in AI-Assisted
Decision Making [45.20615051119694]
我々は、AIによる意思決定における意思決定者の行動とパフォーマンスに第2の意見がどう影響するかを考察する。
AIモデルの推奨事項と第2の意見が常に一致している場合、意思決定者はAIに対する過度な信頼を減らすことができる。
もし意思決定者が、いつ仲間の第二の意見を求めるかを決めることができるならば、彼らの第二の意見の活発な勧誘は、AIに対する過度な信頼を緩和する可能性があることに気付く。
論文 参考訳(メタデータ) (2024-01-13T12:19:01Z) - Appropriate Reliance on AI Advice: Conceptualization and the Effect of
Explanations [0.0]
我々は、AIアドバイスの説明を提供することの効果を分析する研究モデルを開発する。
200人の参加者による実験で、これらの説明が適切な信頼度(AoR)にどのように影響するかを実証した。
我々の研究は、依存行動の分析とAIアドバイザの目的設計のための基本的な概念に貢献する。
論文 参考訳(メタデータ) (2023-02-04T15:48:24Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Should I Follow AI-based Advice? Measuring Appropriate Reliance in
Human-AI Decision-Making [0.0]
私たちは、人間がAIアドバイスを盲目的に頼らず、その品質を区別し、より良い意思決定を行うために行動できるようにすることを目標としています。
現在の研究では、ケースバイケースベースでAIアドバイスに対する適切な信頼(AR)の基準が欠如している。
我々は、ARをアドバイス品質を識別し、それに応じて振る舞う能力を測定する2次元構成体として見ることを提案する。
論文 参考訳(メタデータ) (2022-04-14T12:18:51Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Do Humans Trust Advice More if it Comes from AI? An Analysis of Human-AI
Interactions [8.785345834486057]
人間は、仲間の人間のグループからの同等の提案に対して、AIの提案をどのように利用するかの特徴付けをする。
特定のタスクにおける人間対AIのパフォーマンスに対する参加者の信念が、アドバイスをハイドするかどうかに影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2021-07-14T21:33:14Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z) - Artificial Artificial Intelligence: Measuring Influence of AI
'Assessments' on Moral Decision-Making [48.66982301902923]
ドナー腎アロケーションに関する道徳的意思決定に対する疑似AIからのフィードバックの効果を検討した。
患者が腎臓を受容器するかどうかの判断は、AIによって与えられると認識される参加者自身の意思決定に関するフィードバックに影響される可能性があるという証拠がいくつか見出された。
論文 参考訳(メタデータ) (2020-01-13T14:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。