論文の概要: A Co-design Study for Multi-Stakeholder Job Recommender System
Explanations
- arxiv url: http://arxiv.org/abs/2309.05507v1
- Date: Mon, 11 Sep 2023 14:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 12:08:52.498750
- Title: A Co-design Study for Multi-Stakeholder Job Recommender System
Explanations
- Title(参考訳): マルチstakeholder job recommenderシステム説明のための共同設計研究
- Authors: Roan Schellingerhout, Francesco Barile, Nava Tintarev
- Abstract要約: 異なる利害関係者のタイプには、説明の好みが強く異なることが分かりました。
候補は、短いテキストによる説明を好み、潜在的なマッチを素早く判断できることを示している。
一方、採用マネージャはビジュアルグラフに基づく説明を好んでおり、より技術的で包括的な概要を垣間見ることができます。
- 参考スコア(独自算出の注目度): 2.6681297407122577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent legislation proposals have significantly increased the demand for
eXplainable Artificial Intelligence (XAI) in many businesses, especially in
so-called `high-risk' domains, such as recruitment. Within recruitment, AI has
become commonplace, mainly in the form of job recommender systems (JRSs), which
try to match candidates to vacancies, and vice versa. However, common XAI
techniques often fall short in this domain due to the different levels and
types of expertise of the individuals involved, making explanations difficult
to generalize. To determine the explanation preferences of the different
stakeholder types - candidates, recruiters, and companies - we created and
validated a semi-structured interview guide. Using grounded theory, we
structurally analyzed the results of these interviews and found that different
stakeholder types indeed have strongly differing explanation preferences.
Candidates indicated a preference for brief, textual explanations that allow
them to quickly judge potential matches. On the other hand, hiring managers
preferred visual graph-based explanations that provide a more technical and
comprehensive overview at a glance. Recruiters found more exhaustive textual
explanations preferable, as those provided them with more talking points to
convince both parties of the match. Based on these findings, we describe
guidelines on how to design an explanation interface that fulfills the
requirements of all three stakeholder types. Furthermore, we provide the
validated interview guide, which can assist future research in determining the
explanation preferences of different stakeholder types.
- Abstract(参考訳): 近年の法律では、多くの企業、特に採用のようないわゆる「ハイリスク」領域において、eXPlainable Artificial Intelligence(XAI)の需要が大幅に増加した。
採用の中では、主に求人推薦システム(JRS)という形でAIが普及し、候補者と空席を一致させようとしており、その逆も行われている。
しかし、一般のXAI技術は、関係する個人の異なるレベルの専門知識のために、この領域では不足することが多く、説明の一般化が困難である。
異なる利害関係者タイプ(候補者、採用者、企業)の説明的嗜好を決定するため、半構造化面接ガイドを作成し、検証した。
接地理論を用いて、これらのインタビューの結果を構造的に分析し、異なる利害関係者タイプが説明の好みに強く異なることを見出した。
候補者は、潜在的なマッチを迅速に判断できる簡潔でテキスト的な説明を好むことを示した。
一方、採用マネージャはビジュアルグラフに基づく説明を好み、より技術的で包括的な概要を一目で見ることができます。
採用担当者は、試合の双方を納得させるため、より徹底した説明が望ましいと感じた。
これらの知見に基づき,3種類の利害関係者の要求を満たす説明インタフェースの設計指針について述べる。
さらに,様々な利害関係者タイプの説明選好を決定するための今後の研究を支援する,検証済み面接ガイドを提供する。
関連論文リスト
- Creating Healthy Friction: Determining Stakeholder Requirements of Job Recommendation Explanations [2.373992571236766]
本研究では,現実的なタスクベースの複合設計ユーザスタディを用いて,説明可能なジョブレコメンデーションシステムの評価を行う。
実際の説明を利害関係者に提供することは意思決定のスピードと正確さを著しく向上させるものではない。
論文 参考訳(メタデータ) (2024-09-24T11:03:17Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Clash of the Explainers: Argumentation for Context-Appropriate
Explanations [6.8285745209093145]
特定のコンテキストに最も適したアプローチはひとつもありません。
AIの説明容易性を効果的にするためには、説明とそれらがどのように提示されるかは、説明を受けるステークホルダーに向けられる必要がある。
本稿では、関係する利害関係者の精神モデルと、多説明者による議論問題を解決する理性コンポーネントと、利害関係者に適切に説明すべきAIモデルとからなるモジュラー推論システムを提案する。
論文 参考訳(メタデータ) (2023-12-12T09:52:30Z) - PromptAgent: Strategic Planning with Language Models Enables
Expert-level Prompt Optimization [60.00631098364391]
PromptAgentは、エキスパートレベルのプロンプトを、専門家による手工芸品と同等の品質で作成する最適化手法である。
PromptAgentは人間のような試行錯誤の探索にインスパイアされ、専門家レベルの正確な洞察と詳細な指示を誘導する。
PromptAgentを3つの実践領域にまたがる12のタスクに適用する。
論文 参考訳(メタデータ) (2023-10-25T07:47:01Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Explainable Predictive Maintenance [6.274171448205146]
本稿では,既存のXAI手法と産業応用における説明の具体的要件とのギャップを浮き彫りにする。
本稿では,予測保守作業の概要と,それに対応する説明の必要性と目的を強調する。
次に、文献で一般的に使われているXAIテクニックをリストアップし、記述し、PdMタスクに適合性について論じる。
論文 参考訳(メタデータ) (2023-06-08T11:42:47Z) - Getting MoRE out of Mixture of Language Model Reasoning Experts [71.61176122960464]
多様な特殊言語モデルを組み込んだMixture-of-Reasoning-Experts (MoRE) フレームワークを提案する。
実例,マルチホップ,数学的,コモンセンス推論など,さまざまな推論カテゴリに最適化されたプロンプトを備えたバックボーン言語モデルを特化する。
人間の研究では、専門家による予測と回答の選択プロセスが、アノテータがシステムの出力を信頼するタイミングをより正確に調整するのに役立ちます。
論文 参考訳(メタデータ) (2023-05-24T02:00:51Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Experiential Explanations for Reinforcement Learning [15.80179578318569]
強化学習システムは複雑で解釈不能である。
本稿では,実証説明手法を提案する。
論文 参考訳(メタデータ) (2022-10-10T14:27:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。