論文の概要: "Computer Says No": Algorithmic Decision Support and Organisational
Responsibility
- arxiv url: http://arxiv.org/abs/2110.11037v2
- Date: Thu, 23 Jun 2022 08:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 21:50:38.077340
- Title: "Computer Says No": Algorithmic Decision Support and Organisational
Responsibility
- Title(参考訳): "Computer Says No":アルゴリズムによる意思決定支援と組織責任
- Authors: Angelika Adensamer, Rita Gsenger, Lukas Daniel Klausner
- Abstract要約: アルゴリズムによる決定サポートは、さまざまなコンテキストや構造全体において、ますます利用されています。
その利用は、説明責任、透明性、責任に関する疑問を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision support is increasingly used in a whole array of
different contexts and structures in various areas of society, influencing many
people's lives. Its use raises questions, among others, about accountability,
transparency and responsibility. While there is substantial research on the
issue of algorithmic systems and responsibility in general, there is little to
no prior research on organisational responsibility and its attribution. Our
article aims to fill that gap; we give a brief overview of the central issues
connected to ADS, responsibility and decision-making in organisational contexts
and identify open questions and research gaps. Furthermore, we describe a set
of guidelines and a complementary digital tool to assist practitioners in
mapping responsibility when introducing ADS within their organisational
context.
- Abstract(参考訳): アルゴリズムによる意思決定支援は、社会の様々な分野における様々な文脈や構造においてますます使われ、多くの人々の生活に影響を与えている。
その使用は、説明責任、透明性、責任に関する疑問を提起する。
アルゴリズムシステムと責任全般に関する実質的な研究は存在するが、組織的責任とその帰属に関する以前の研究はほとんど、あるいは全くない。
私たちは、組織的なコンテキストにおける広告、責任、意思決定に関連する中心的な問題の概要を説明し、オープンな質問と研究のギャップを特定します。
さらに,ADSを組織的コンテキストに導入する際に,実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector [0.0]
多様な利害関係者間のコミュニケーション問題は、AIアルゴリズムの誤解釈と誤用につながる可能性がある。
我々は,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを行う。
公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
論文 参考訳(メタデータ) (2024-03-20T14:20:42Z) - Responsible AI Governance: A Systematic Literature Review [8.318630741859113]
本稿では,AIガバナンスに関する既存の文献を検討することを目的とする。
WHOはAIシステムのガバナンスに責任を持ち、WHAT要素は管理されており、WHENガバナンスはAI開発ライフサイクル内で発生し、HOWはフレームワーク、ツール、標準、ポリシー、モデルといった様々なメカニズムによって実行される。
本研究の成果は,RAI原則に沿った包括的ガバナンスモデルの研究・開発の基礎となるものである。
論文 参考訳(メタデータ) (2023-12-18T05:22:36Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - Unravelling Responsibility for AI [0.8836921728313208]
AI対応システムのアウトプットと影響に責任を負う場所を確立する必要があることは広く認識されている。
本稿では,AIの責任概念を明確にするために,哲学と法学における中心的な違いを考察する。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung [0.0]
アルゴリズム決定サポート(ADS)は、さまざまなコンテキストや構造の配列全体において、ますます使われている。
本稿は、組織におけるADS、責任、意思決定に関連する中心的な問題について、簡単な概要を述べることを目的としている。
本稿では,ADS導入時の実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
論文 参考訳(メタデータ) (2022-07-21T13:45:10Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。