論文の概要: Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector
- arxiv url: http://arxiv.org/abs/2404.00022v1
- Date: Wed, 20 Mar 2024 14:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-07 23:17:33.302428
- Title: Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector
- Title(参考訳): AIフェアネス関連決定のためのヒューマンコミュニケーションの分析と組織化--公共セクターの事例から
- Authors: Mirthe Dankloff, Vanja Skoric, Giovanni Sileno, Sennay Ghebreab, Jacco Van Ossenbruggen, Emma Beauxis-Aussalet,
- Abstract要約: 多様な利害関係者間のコミュニケーション問題は、AIアルゴリズムの誤解釈と誤用につながる可能性がある。
我々は,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを行う。
公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI algorithms used in the public sector, e.g., for allocating social benefits or predicting fraud, often involve multiple public and private stakeholders at various phases of the algorithm's life-cycle. Communication issues between these diverse stakeholders can lead to misinterpretation and misuse of algorithms. We investigate the communication processes for AI fairness-related decisions by conducting interviews with practitioners working on algorithmic systems in the public sector. By applying qualitative coding analysis, we identify key elements of communication processes that underlie fairness-related human decisions. We analyze the division of roles, tasks, skills, and challenges perceived by stakeholders. We formalize the underlying communication issues within a conceptual framework that i. represents the communication patterns ii. outlines missing elements, such as actors who miss skills for their tasks. The framework is used for describing and analyzing key organizational issues for fairness-related decisions. Three general patterns emerge from the analysis: 1. Policy-makers, civil servants, and domain experts are less involved compared to developers throughout a system's life-cycle. This leads to developers taking on extra roles such as advisor, while they potentially miss the required skills and guidance from domain experts. 2. End-users and policy-makers often lack the technical skills to interpret a system's limitations, and rely on developer roles for making decisions concerning fairness issues. 3. Citizens are structurally absent throughout a system's life-cycle, which may lead to decisions that do not include relevant considerations from impacted stakeholders.
- Abstract(参考訳): 公共セクターで使用されるAIアルゴリズム、例えば、社会的利益の割当や詐欺の予測には、アルゴリズムのライフサイクルのさまざまなフェーズにおいて、複数の公私利害関係者が関与することが多い。
これらの多様な利害関係者間のコミュニケーション問題は、アルゴリズムの誤解と誤用につながる可能性がある。
本稿では,AIフェアネス関連意思決定のためのコミュニケーションプロセスについて,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを通じて検討する。
定性的な符号化分析を適用することにより、公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
ステークホルダーが認識する役割、タスク、スキル、課題の区分を分析します。
我々は,その基礎となるコミュニケーション問題を,概念的枠組みの中で形式化する。
コミュニケーションのパターン iiを表しています
タスクのスキルを欠く俳優など、欠落した要素を概説する。
このフレームワークは、公平性に関する決定のための重要な組織上の問題の説明と分析に使用される。
分析から3つの一般的なパターンが浮かび上がる。
1. 政策立案者、公務員、及びドメインの専門家は、システムライフサイクル全体を通して開発者よりも関与していない。
これにより、アドバイザのような余分な役割を負う開発者は、必要なスキルやドメインの専門家からのガイダンスを見逃してしまう可能性がある。
2. エンドユーザー及び政策立案者は、システムの限界を解釈する技術力に欠けることが多く、公正問題に関する意思決定に開発者の役割に依存している。
3 市民は、システムのライフサイクルを通して構造的に欠席しており、影響した利害関係者から関連する配慮を含まない決定を下す可能性がある。
関連論文リスト
- Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - ACROCPoLis: A Descriptive Framework for Making Sense of Fairness [6.4686347616068005]
本研究では,アロケーションプロセスを表現するためのACROCPoLisフレームワークを提案する。
このフレームワークは、異なる状況や手順に対する公平性評価に関連する要因を明示する共有語彙を提供する。
論文 参考訳(メタデータ) (2023-04-19T21:14:57Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung [0.0]
アルゴリズム決定サポート(ADS)は、さまざまなコンテキストや構造の配列全体において、ますます使われている。
本稿は、組織におけるADS、責任、意思決定に関連する中心的な問題について、簡単な概要を述べることを目的としている。
本稿では,ADS導入時の実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
論文 参考訳(メタデータ) (2022-07-21T13:45:10Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。