論文の概要: The Effects of Interaction Conflicts, Levels of Automation, and
Frequency of Automation on Human Automation Trust and Acceptance
- arxiv url: http://arxiv.org/abs/2307.05512v1
- Date: Wed, 5 Jul 2023 18:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-16 03:36:20.668767
- Title: The Effects of Interaction Conflicts, Levels of Automation, and
Frequency of Automation on Human Automation Trust and Acceptance
- Title(参考訳): インタラクションの衝突、自動化のレベル、自動化の頻度が人間の自動化の信頼と受容に及ぼす影響
- Authors: Hadi Halvachi, Ali Asghar Nazari Shirehjini, Zahra Kakavand, Niloofar
Hashemi, and Shervin Shirmohammadi
- Abstract要約: 自動化のレベルと頻度は、スマート環境におけるユーザの信頼に影響を及ぼした。
その結果、自動化されたスマート環境へのユーザの受け入れは、自動化された障害やインタラクションの衝突の存在下で減少することが示された。
- 参考スコア(独自算出の注目度): 4.876647193865874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the presence of interaction conflicts, user trust in automation plays an
important role in accepting intelligent environments such as smart homes. In
this paper, a factorial research design is employed to investigate and compare
the single and joint effects of Level of Automation (LoA), Frequency of
Automated responses (FoA), and Conflict Intensity (CI) on human trust and
acceptance of automation in the context of smart homes. To study these effects,
we conducted web-based experiments to gather data from 324 online participants
who experienced the system through a 3D simulation of a smart home. The
findings show that the level and frequency of automation had an impact on user
trust in smart environments. Furthermore, the results demonstrate that the
users' acceptance of automated smart environments decreased in the presence of
automation failures and interaction conflicts.
- Abstract(参考訳): インタラクションの競合が存在する場合、スマートホームのようなインテリジェントな環境を受け入れる上で、オートメーションに対するユーザの信頼が重要な役割を果たす。
本稿では、自動化レベル(LoA)、自動応答頻度(FoA)、衝突強度(CI)がスマートホームの文脈における人間の信頼と自動化の受容に与える影響を調査・比較するために、要因研究設計を採用する。
これらの効果を調べるために,スマートホームの3dシミュレーションを通じて,システムを経験した324人のオンライン参加者からデータを収集するためのwebベースの実験を行った。
その結果、自動化のレベルと頻度は、スマート環境におけるユーザの信頼に影響を及ぼした。
さらに,自動化されたスマート環境に対するユーザの受容度は,自動化の失敗やインタラクションの衝突があった場合に低下した。
関連論文リスト
- Assessing the Performance of Human-Capable LLMs -- Are LLMs Coming for Your Job? [0.0]
SelfScoreは、ヘルプデスクとプロのコンサルティングタスクにおけるLLM(Large Language Model)の自動エージェントのパフォーマンスを評価するために設計されたベンチマークである。
このベンチマークは、問題の複雑さと応答の助け、スコアリングシステムにおける透明性と単純さの確保に関するエージェントを評価する。
この研究は、特にAI技術が優れている地域では、労働者の移動の可能性への懸念を提起している。
論文 参考訳(メタデータ) (2024-10-05T14:37:35Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Human-Centered Automation [0.3626013617212666]
この論文は、自動化システムの設計と開発におけるユーザニーズと嗜好を優先するHCA(Human-Centered Automation)の新たな領域について論じている。
本稿は、既存の自動化アプローチの限界、AIとRPAの統合の課題、生産性、イノベーション、そしてこれらの技術へのアクセスを民主化するための人間中心の自動化の利点について論じる。
論文 参考訳(メタデータ) (2024-05-24T22:12:28Z) - Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles [4.1636282808157254]
自動車の自律性に対する信頼構築において、説明可能なAIとヒューマン・マシン・インタフェースが共に果たす役割について検討する。
自動運転行動に対するユーザの信頼度を調整するための状況認識フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-10T23:02:13Z) - Analyze Drivers' Intervention Behavior During Autonomous Driving -- A
VR-incorporated Approach [2.7532019227694344]
この研究は、自動運転車の運転に関わる人間のドライバーの介入行動を理解することに光を当てている。
仮想リアリティ(VR)と交通マイクロシミュレーションを統合する実験環境が実装された。
介入の確率、事故率などのパフォーマンス指標が定義され、リスクレベルを定量化し比較するために使用される。
論文 参考訳(メタデータ) (2023-12-04T06:36:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Effects of Interactive AI Design on User Behavior: An Eye-tracking
Study of Fact-checking COVID-19 Claims [12.00747200817161]
我々は,AIを用いたファクトチェックシステムの相互作用がユーザインタラクションに与える影響について,実験室による眼球追跡調査を行った。
その結果、AIシステムの予測パラメータを対話的に操作することの存在は、ユーザの生活時間や、AOIの眼球修正に影響を及ぼすが、精神的な作業負荷には影響しないことがわかった。
論文 参考訳(メタデータ) (2022-02-17T21:08:57Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - AutoFIS: Automatic Feature Interaction Selection in Factorization Models
for Click-Through Rate Prediction [75.16836697734995]
自動特徴相互作用選択(AutoFIS)と呼ばれる2段階のアルゴリズムを提案する。
AutoFISは、目標モデルを収束させるためにトレーニングするのと同等の計算コストで、因子化モデルに対する重要な特徴的相互作用を自動的に識別することができる。
AutoFISはHuawei App Storeレコメンデーションサービスのトレーニングプラットフォームにデプロイされている。
論文 参考訳(メタデータ) (2020-03-25T06:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。