論文の概要: Comparing Psychometric and Behavioral Predictors of Compliance During
Human-AI Interactions
- arxiv url: http://arxiv.org/abs/2302.01854v1
- Date: Fri, 3 Feb 2023 16:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:33:32.119690
- Title: Comparing Psychometric and Behavioral Predictors of Compliance During
Human-AI Interactions
- Title(参考訳): 人間-aiインタラクションにおけるコンプライアンスの心理計測と行動予測の比較
- Authors: Nikolos Gurney and David V. Pynadath and Ning Wang
- Abstract要約: アダプティブAI研究における一般的な仮説は、信頼への偏見の微妙な違いは、AIからの勧告に従う可能性に大きな影響を及ぼす、というものである。
我々は、コンプライアンスの行動予測者に対して、この種の一般的な尺度をベンチマークする。
これは、初期行動における個人差が、自己報告された信頼態度の違いよりも予測的であるという一般的な性質を示唆している。
- 参考スコア(独自算出の注目度): 5.893351309010412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization of human-AI teams hinges on the AI's ability to tailor its
interaction to individual human teammates. A common hypothesis in adaptive AI
research is that minor differences in people's predisposition to trust can
significantly impact their likelihood of complying with recommendations from
the AI. Predisposition to trust is often measured with self-report inventories
that are administered before interactions. We benchmark a popular measure of
this kind against behavioral predictors of compliance. We find that the
inventory is a less effective predictor of compliance than the behavioral
measures in datasets taken from three previous research projects. This suggests
a general property that individual differences in initial behavior are more
predictive than differences in self-reported trust attitudes. This result also
shows a potential for easily accessible behavioral measures to provide an AI
with more accurate models without the use of (often costly) survey instruments.
- Abstract(参考訳): 人間-AIチームの最適化は、個々のチームメイトとのインタラクションをカスタマイズするAIの能力に依存している。
アダプティブAI研究における一般的な仮説は、信頼への偏見の微妙な違いは、AIからの勧告に従う可能性に大きな影響を及ぼすというものである。
信頼の前提は、しばしば相互作用の前に管理される自己報告在庫によって測定される。
コンプライアンスの行動予測に対して、この種の一般的な尺度をベンチマークします。
これまでの3つの研究プロジェクトから得られたデータセットの行動測定よりも、在庫はコンプライアンスの効果的な予測因子であることがわかった。
これは、初期の行動における個人差が、自己報告された信頼態度の差よりも予測的であるという一般的な特性を示唆する。
この結果はまた、(しばしば高価な)調査機器を使わずに、より正確なモデルでAIを提供するための、容易にアクセス可能な行動測定の可能性を示している。
関連論文リスト
- Beyond correlation: The impact of human uncertainty in measuring the effectiveness of automatic evaluation and LLM-as-a-judge [51.93909886542317]
本稿では,人間の行動と自動評価方法の相違点を,単一の集合相関スコアが明らかにする方法について述べる。
本研究では,評価性能のより堅牢な解析を行うために,ラベルの不確実性による階層化結果を提案する。
論文 参考訳(メタデータ) (2024-10-03T03:08:29Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Role of Human-AI Interaction in Selective Prediction [20.11364033416315]
我々は、AIシステムの遅延決定について、異なる種類の情報を人間に伝達する影響について研究する。
我々は,AIの予測は明らかにせず,遅延する決定を人間に伝えることで,人間のパフォーマンスを大幅に向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-12-13T16:03:13Z) - ACP++: Action Co-occurrence Priors for Human-Object Interaction
Detection [102.9428507180728]
ヒューマン・オブジェクト・インタラクション(HOI)検出のタスクにおける一般的な問題は、多数のHOIクラスが少数のラベル付き例しか持たないことである。
我々は、人間と物体の相互作用の間に自然の相関関係と反相関が存在することを観察した。
我々は、これらの先行知識を学習し、特に稀なクラスにおいて、より効果的な訓練に活用する手法を提案する。
論文 参考訳(メタデータ) (2021-09-09T06:02:50Z) - Improving Confidence in the Estimation of Values and Norms [3.8323580808203785]
本稿では,AAがシミュレーションされたエージェントの行動に基づいて,シミュレーションされたエージェントの価値と規範を推定できる範囲について分析する。
本研究では,SHAの探索におけるあいまいさを軽減する方法として,探索空間探索に基づく手法と,対実解析に基づく手法の2つを提案する。
論文 参考訳(メタデータ) (2020-04-02T15:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。