論文の概要: Unpacking Human-AI Interaction in Safety-Critical Industries: A
Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2310.03392v1
- Date: Thu, 5 Oct 2023 08:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 16:53:35.597887
- Title: Unpacking Human-AI Interaction in Safety-Critical Industries: A
Systematic Literature Review
- Title(参考訳): 安全臨界産業における人間とAIの相互作用の解き放つ : 体系的文献レビュー
- Authors: Tita A. Bach, Jenny K. Kristiansen, Aleksandar Babic, and Alon Jacovi
- Abstract要約: 文献でHAIIを記述するために1つの用語は使われていない。
HAIIに影響を与える5つの要因は、ユーザ特性と背景、AIインターフェースと機能、AI出力、説明可能性と解釈可能性、AIの利用である。
HAIIは、ユーザ関連の主観的指標によって最もよく測定される。
- 参考スコア(独自算出の注目度): 48.052150453947405
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring quality human-AI interaction (HAII) in safety-critical industries is
essential. Failure to do so can lead to catastrophic and deadly consequences.
Despite this urgency, what little research there is on HAII is fragmented and
inconsistent. We present here a survey of that literature and recommendations
for research best practices that will improve the field. We divided our
investigation into the following research areas: (1) terms used to describe
HAII, (2) primary roles of AI-enabled systems, (3) factors that influence HAII,
and (4) how HAII is measured. Additionally, we described the capabilities and
maturity of the AI-enabled systems used in safety-critical industries discussed
in these articles. We found that no single term is used across the literature
to describe HAII and some terms have multiple meanings. According to our
literature, five factors influence HAII: user characteristics and background
(e.g., user personality, perceptions), AI interface and features (e.g.,
interactive UI design), AI output (e.g., accuracy, actionable recommendations),
explainability and interpretability (e.g., level of detail, user
understanding), and usage of AI (e.g., heterogeneity of environments and user
needs). HAII is most commonly measured with user-related subjective metrics
(e.g., user perception, trust, and attitudes), and AI-assisted decision-making
is the most common primary role of AI-enabled systems. Based on this review, we
conclude that there are substantial research gaps in HAII. Researchers and
developers need to codify HAII terminology, involve users throughout the AI
lifecycle (especially during development), and tailor HAII in safety-critical
industries to the users and environments.
- Abstract(参考訳): 安全クリティカル産業における高品質な人間-AIインタラクション(HAII)の確保が不可欠である。
失敗は破滅的かつ致命的な結果をもたらす可能性がある。
この緊急性にもかかわらず、HAIIに関する研究はほとんど行われていない。
本稿では,その分野を改善するための文献と研究のベストプラクティスに関する提言を紹介する。
本研究は,(1) HAIIを記述するための用語,(2)AI対応システムの主要な役割,(3) HAIIに影響を与える要因,(4) HAIIの測定方法に分けた。
さらに,本論文で議論されている安全クリティカルな産業で使用されるai対応システムの能力と成熟度について述べる。
文献中にHAIIを記述する用語は存在せず,複数の意味を持つ用語もある。
私たちの文献によると、HAIIに影響を与える5つの要因は、ユーザ特性と背景(例えば、ユーザ個性、知覚)、AIインターフェースと特徴(例えば、インタラクティブUIデザイン)、AI出力(例えば、正確性、行動可能なレコメンデーション)、説明可能性と解釈可能性(例えば、詳細レベル、ユーザ理解)、AIの使用(例えば、環境とユーザニーズの不均一性)である。
HAIIは、ユーザ関連の主観的指標(例えば、ユーザ認識、信頼、態度)で最もよく測定され、AI支援意思決定はAI対応システムの最も一般的な役割である。
本レビューから,HAIIにはかなりの研究ギャップが存在すると結論づける。
研究者や開発者は、HAII用語を体系化し、AIライフサイクル全体(特に開発期間中)にユーザを巻き込み、ユーザや環境に対して安全クリティカルな産業におけるHAIIを調整する必要がある。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z) - The Impact of Explanations on AI Competency Prediction in VQA [3.149760860038061]
視覚的質問応答(VQA)タスクにおけるAIエージェント能力のユーザ精神モデルに対する説明の影響を評価する。
本稿では,空間的特徴とオブジェクト的特徴を併用し,BERT言語モデルを用いた説明可能なVQAシステムを提案する。
論文 参考訳(メタデータ) (2020-07-02T06:11:28Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。