論文の概要: Superhuman Game AI Disclosure: Expertise and Context Moderate Effects on Trust and Fairness
- arxiv url: http://arxiv.org/abs/2503.15514v2
- Date: Mon, 07 Apr 2025 17:39:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:08:12.829368
- Title: Superhuman Game AI Disclosure: Expertise and Context Moderate Effects on Trust and Fairness
- Title(参考訳): 超人ゲームAIの情報開示:信頼と公正に対する専門性と文脈のモデレート効果
- Authors: Jaymari Chua, Chen Wang, Lina Yao,
- Abstract要約: 競争力のあるStarCraft IIシナリオにおける超人的ゲームAIの行動に,能力開示がどのような影響を及ぼすかを検討する。
情報開示は疑いを和らげる可能性があるが、フラストレーションや戦略的敗北を招いた。
信頼性と説明責任を高めるために開示をうまく活用するには、ユーザの特性を慎重に調整する必要があります。
- 参考スコア(独自算出の注目度): 13.63944785085617
- License:
- Abstract: As artificial intelligence surpasses human performance in select tasks, disclosing superhuman capabilities poses distinct challenges for fairness, accountability, and trust. However, the impact of such disclosures on diverse user attitudes and behaviors remains unclear, particularly concerning potential negative reactions like discouragement or overreliance. This paper investigates these effects by utilizing Persona Cards: a validated, standardized set of synthetic personas designed to simulate diverse user reactions and fairness perspectives. We conducted an ethics board-approved study (N=32), utilizing these personas to investigate how capability disclosure influenced behaviors with a superhuman game AI in competitive StarCraft II scenarios. Our results reveal transparency is double-edged: while disclosure could alleviate suspicion, it also provoked frustration and strategic defeatism among novices in cooperative scenarios, as well as overreliance in competitive contexts. Experienced and competitive players interpreted disclosure as confirmation of an unbeatable opponent, shifting to suboptimal goals. We release the Persona Cards Dataset, including profiles, prompts, interaction logs, and protocols, to foster reproducible research into human alignment AI design. This work demonstrates that transparency is not a cure-all; successfully leveraging disclosure to enhance trust and accountability requires careful tailoring to user characteristics, domain norms, and specific fairness objectives.
- Abstract(参考訳): 人工知能が特定のタスクにおける人間のパフォーマンスを上回っているため、超人的能力の開示は公正性、説明責任、信頼に異なる課題をもたらす。
しかし、そのような開示が多様なユーザの態度や行動に与える影響は、特に不確実性や過信といった潜在的なネガティブな反応に関して、いまだに不明である。
本稿では, 多様なユーザ反応とフェアネスの視点をシミュレートした, 検証された, 標準化された合成ペルソナの集合であるペルソナカードを活用することにより, これらの効果について検討する。
我々は,これらのペルソナを用いて,超人的なゲームAIを用いて,競争力のあるStarCraft IIシナリオにおける行動にどのように影響するかを倫理委員会で調査した(N=32)。
情報開示は疑念を和らげる可能性があるが、協調シナリオの初心者のフラストレーションや戦略的敗北を招き、競争状況における過度な信頼も引き起こした。
経験豊富な競争力のある選手は、開示を不当な相手の確認であると解釈し、最適以下の目標に移行した。
我々は、人間のアライメントAI設計に関する再現可能な研究を促進するために、プロファイル、プロンプト、対話ログ、プロトコルを含むペルソナカードデータセットをリリースする。
信頼と説明責任を高めるために開示をうまく活用するには、ユーザの特性、ドメインの規範、特定の公正さの目標を慎重に調整する必要があります。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - The Good, the Bad, and the Ugly: The Role of AI Quality Disclosure in Lie Detection [5.539973416151908]
低品質のAIアドバイザは、品質の開示が欠如しているため、テキストベースの嘘を広めるのに役立ち、嘘を検出するのに役立ちそうである。
情報開示のない低品質のアドバイザーに頼る場合、参加者の真偽検出率は、AIの真の有効性が明らかになると、自身の能力を下回ることがわかりました。
論文 参考訳(メタデータ) (2024-10-30T15:58:05Z) - The impact of labeling automotive AI as "trustworthy" or "reliable" on user evaluation and technology acceptance [0.0]
本研究は,AIを「信頼できる」あるいは「信頼できる」とラベル付けすることが,自動車AI技術のユーザ認識と受容に影響を及ぼすかどうかを考察する。
この研究は、一方的なオブジェクト間の設計を用いて、478人のオンライン参加者を巻き込み、信頼できるAIまたは信頼できるAIのガイドラインを提示した。
AIを「信頼できる」とラベル付けすることは、特定のシナリオにおける判断に大きな影響を与えなかったが、使用の容易さと人間のような信頼、特に善意が増した。
論文 参考訳(メタデータ) (2024-08-20T14:48:24Z) - Banal Deception Human-AI Ecosystems: A Study of People's Perceptions of LLM-generated Deceptive Behaviour [11.285775969393566]
大規模言語モデル(LLM)は、ユーザに誤った、不正確な、あるいは誤解を招く情報を提供する。
本研究は,ChatGPTが生成する騙し行動に対する人々の認識について検討する。
論文 参考訳(メタデータ) (2024-06-12T16:36:06Z) - "AI enhances our performance, I have no doubt this one will do the
same": The Placebo effect is robust to negative descriptions of AI [18.760251521240892]
高度なAI期待は、プラセボ効果を通じて人間とAIのインタラクションのパフォーマンスを促進する。
ユーザの期待がAIインタラクションや評価に与える影響について論じる。
論文 参考訳(メタデータ) (2023-09-28T17:05:59Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Learning to Influence Human Behavior with Offline Reinforcement Learning [70.7884839812069]
人間の準最適性を捉える必要があるような環境での影響に焦点を当てる。
人間によるオンライン実験は安全ではない可能性があり、環境の高忠実度シミュレータを作成することは現実的ではないことが多い。
オフライン強化学習は、観察された人間・人間の行動の要素を拡張し、組み合わせることで、人間に効果的に影響を及ぼすことができることを示す。
論文 参考訳(メタデータ) (2023-03-03T23:41:55Z) - Explanations, Fairness, and Appropriate Reliance in Human-AI Decision-Making [10.049226270783562]
特徴に基づく説明がAIによる意思決定の分配的公平性に及ぼす影響について検討する。
以上の結果から,説明は公正感に影響を及ぼし,人間のAI推奨に固執する傾向に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-23T19:10:59Z) - Detecting adversaries in Crowdsourcing [71.20185379303479]
本研究は, クラウドソース型分類における敵の影響を, 人気のダウィド・アンド・スケネモデルを用いて検討する。
敵は、クラウドソーシングモデルから任意に逸脱することを許され、潜在的に協力する可能性がある。
我々は,アノテータ応答の2次モーメント構造を利用して,多数の敵を識別し,クラウドソーシングタスクへの影響を軽減するアプローチを開発した。
論文 参考訳(メタデータ) (2021-10-07T15:07:07Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。