論文の概要: Do you comply with AI? -- Personalized explanations of learning
algorithms and their impact on employees' compliance behavior
- arxiv url: http://arxiv.org/abs/2002.08777v1
- Date: Thu, 20 Feb 2020 14:55:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:17:50.790813
- Title: Do you comply with AI? -- Personalized explanations of learning
algorithms and their impact on employees' compliance behavior
- Title(参考訳): あなたはAIに準拠していますか?
--学習アルゴリズムのパーソナライズされた説明と従業員のコンプライアンス行動への影響
- Authors: NIklas Kuhl, Jodie Lobana, and Christian Meske
- Abstract要約: AI説明のパーソナライズは、コンプライアンスや従って従業員タスクのパフォーマンスに影響を与えるための手段であるかもしれない。
予備的な結果は、産業環境におけるパーソナライズされた説明の重要性をすでに示している。
- 参考スコア(独自算出の注目度): 0.11470070927586014
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine Learning algorithms are technological key enablers for artificial
intelligence (AI). Due to the inherent complexity, these learning algorithms
represent black boxes and are difficult to comprehend, therefore influencing
compliance behavior. Hence, compliance with the recommendations of such
artifacts, which can impact employees' task performance significantly, is still
subject to research - and personalization of AI explanations seems to be a
promising concept in this regard. In our work, we hypothesize that, based on
varying backgrounds like training, domain knowledge and demographic
characteristics, individuals have different understandings and hence mental
models about the learning algorithm. Personalization of AI explanations,
related to the individuals' mental models, may thus be an instrument to affect
compliance and therefore employee task performance. Our preliminary results
already indicate the importance of personalized explanations in industry
settings and emphasize the importance of this research endeavor.
- Abstract(参考訳): 機械学習アルゴリズムは、人工知能(AI)の技術的キーイネーブルである。
固有の複雑さのため、これらの学習アルゴリズムはブラックボックスを表現し、理解しにくいため、コンプライアンス行動に影響を与える。
したがって、従業員のタスクパフォーマンスに大きな影響を与えるような、そのようなアーティファクトのレコメンデーションの遵守は研究の対象であり、この点においてAI説明のパーソナライズが有望な概念であると考えられる。
私たちの研究では、トレーニング、ドメイン知識、人口統計学的特徴といった様々な背景に基づいて、個人は学習アルゴリズムについて異なる理解を持ち、それゆえメンタルモデルを持っていると仮定しています。
個人のメンタルモデルに関連するAI説明のパーソナライズは、コンプライアンスや従業員のタスクパフォーマンスに影響を与えるための手段となるかもしれない。
予備的な結果は,産業環境におけるパーソナライズされた説明の重要性を示し,本研究の重要性を強調している。
関連論文リスト
- An Information Bottleneck Characterization of the Understanding-Workload
Tradeoff [15.90243405031747]
説明可能なAI(XAI)設計において、説明の有効性に影響を及ぼす人的要因の考察が重要である。
XAIの既存の作業は、さまざまなタイプの説明によって引き起こされる理解と作業負荷のトレードオフを実証している。
論文 参考訳(メタデータ) (2023-10-11T18:35:26Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Human-Algorithm Collaboration: Achieving Complementarity and Avoiding
Unfairness [92.26039686430204]
慎重に設計されたシステムであっても、補完的な性能はあり得ないことを示す。
まず,簡単な人間アルゴリズムをモデル化するための理論的枠組みを提案する。
次に、このモデルを用いて相補性が不可能な条件を証明する。
論文 参考訳(メタデータ) (2022-02-17T18:44:41Z) - Machine Explanations and Human Understanding [31.047297225560566]
説明は、機械学習モデルの人間の理解を改善すると仮定される。
実験的な研究で 混ざった結果も 否定的な結果も出ています
人間の直観が人間の理解にどのような役割を果たしているかを示す。
論文 参考訳(メタデータ) (2022-02-08T19:00:38Z) - Towards Explainable Artificial Intelligence in Banking and Financial
Services [0.0]
説明可能な人工知能(XAI)の手法とツールを用いた最近の研究を研究・分析する。
我々は,高レベルの学習性能を維持しつつ,説明可能なモデルの作成を容易にする新しいXAIプロセスを導入する。
我々は,アルゴリズム結果との対話を容易にするデジタルダッシュボードを開発した。
論文 参考訳(メタデータ) (2021-12-14T08:02:13Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Ethical behavior in humans and machines -- Evaluating training data
quality for beneficial machine learning [0.0]
本研究では、教師付き機械学習アプリケーションのためのデータ品質の新しい次元について述べる。
本研究の目的は、その行動の倫理的評価に基づいて、トレーニングデータをどのように選択できるかを説明することである。
論文 参考訳(メタデータ) (2020-08-26T09:48:38Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。