論文の概要: Explained, yet misunderstood: How AI Literacy shapes HR Managers' interpretation of User Interfaces in Recruiting Recommender Systems
- arxiv url: http://arxiv.org/abs/2509.06475v1
- Date: Mon, 08 Sep 2025 09:40:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.037737
- Title: Explained, yet misunderstood: How AI Literacy shapes HR Managers' interpretation of User Interfaces in Recruiting Recommender Systems
- Title(参考訳): AIリテラシーがリクルートレコメンダシステムにおけるHRマネージャのユーザインターフェース解釈をいかに形作るか
- Authors: Yannick Kalff, Katharina Simbeck,
- Abstract要約: 本研究では、人事管理者のAIリテラシーが、推薦ダッシュボードの採用において、主観的認識と説明可能なAI要素の客観的理解にどのように影響するかを検討する。
我々の結果は、実際に使用されるダッシュボードがAIの結果を説明していないこと、さらにはAI要素を不透明に保っていることを示しています。
我々の発見は、AIの公正で透明で効果的な採用を保証するために、HRMにおける適切な説明戦略とターゲットリテラシートレーニングの必要性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-based recommender systems increasingly influence recruitment decisions. Thus, transparency and responsible adoption in Human Resource Management (HRM) are critical. This study examines how HR managers' AI literacy influences their subjective perception and objective understanding of explainable AI (XAI) elements in recruiting recommender dashboards. In an online experiment, 410 German-based HR managers compared baseline dashboards to versions enriched with three XAI styles: important features, counterfactuals, and model criteria. Our results show that the dashboards used in practice do not explain AI results and even keep AI elements opaque. However, while adding XAI features improves subjective perceptions of helpfulness and trust among users with moderate or high AI literacy, it does not increase their objective understanding. It may even reduce accurate understanding, especially with complex explanations. Only overlays of important features significantly aided the interpretations of high-literacy users. Our findings highlight that the benefits of XAI in recruitment depend on users' AI literacy, emphasizing the need for tailored explanation strategies and targeted literacy training in HRM to ensure fair, transparent, and effective adoption of AI.
- Abstract(参考訳): AIベースのレコメンデーターシステムは、採用決定にますます影響を及ぼす。
したがって、人的資源管理(HRM)における透明性と責任ある採用が重要である。
本研究では、人事管理者のAIリテラシーが、推薦ダッシュボードの採用において、主観的認知と説明可能なAI(XAI)要素の客観的理解にどのように影響するかを検討する。
オンライン実験では、ドイツに本拠を置くHRマネージャ410人が、ベースラインダッシュボードを、3つのXAIスタイル(重要な特徴、偽物、モデル基準)で強化されたバージョンと比較した。
我々の結果は、実際に使用されるダッシュボードがAIの結果を説明していないこと、さらにはAI要素を不透明に保っていることを示しています。
しかし、XAI機能を追加することで、中程度の、あるいは高いAIリテラシーを持つユーザの間での役に立つことや信頼に対する主観的な認識が向上する一方、客観的な理解は向上しない。
特に複雑な説明では、正確な理解を減らせることもある。
重要な機能のオーバーレイだけが、高いリテラシー利用者の解釈を大いに助けた。
我々の知見は、採用におけるXAIの利点がユーザーのAIリテラシーに依存していることを示し、AIの公正で透明で効果的な採用を保証するために、HRMにおける適切な説明戦略とターゲットリテラシートレーニングの必要性を強調した。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Investigating the Role of Explainability and AI Literacy in User Compliance [2.8623940003518156]
XAIの導入により,ユーザのコンプライアンスが向上する一方で,AIリテラシーの影響も受けていることがわかった。
また,AIリテラシーXAIとユーザのコンプライアンスの関係は,ユーザのメンタルモデルが介在していることも確認した。
論文 参考訳(メタデータ) (2024-06-18T14:28:12Z) - Aligning Large Language Models from Self-Reference AI Feedback with one General Principle [61.105703857868775]
13B Llama2-Chatで高品質なフィードバックを提供できる自己参照型AIフィードバックフレームワークを提案する。
具体的には、まずAIがユーザーの指示に反応し、それに基づいて他の回答に対する批判を参照として生成する。
最後に、批判に応じて、どの回答が人間の好みに合うかを判断する。
論文 参考訳(メタデータ) (2024-06-17T03:51:46Z) - Why is plausibility surprisingly problematic as an XAI criterion? [38.0428570713717]
可視性は通常、特徴ローカライゼーションまたは特徴相関のメトリクスによって定量化される。
本研究は, 説明可能性の測定には妥当性が認められず, 人的説明がXAIの基礎的真理ではないことを示す。
測定の無効性と非倫理的な問題から,XAIアルゴリズムの評価と最適化の基準として,コミュニティは可視性の使用をやめるべきである,と論じる。
論文 参考訳(メタデータ) (2023-03-30T20:59:44Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Responsibility: An Example-based Explainable AI approach via Training
Process Inspection [1.4610038284393165]
我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2022-09-07T19:30:01Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。