論文の概要: "Computer Says No": Algorithmic Decision Support and Organisational
Responsibility
- arxiv url: http://arxiv.org/abs/2110.11037v2
- Date: Thu, 23 Jun 2022 08:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 21:50:38.077340
- Title: "Computer Says No": Algorithmic Decision Support and Organisational
Responsibility
- Title(参考訳): "Computer Says No":アルゴリズムによる意思決定支援と組織責任
- Authors: Angelika Adensamer, Rita Gsenger, Lukas Daniel Klausner
- Abstract要約: アルゴリズムによる決定サポートは、さまざまなコンテキストや構造全体において、ますます利用されています。
その利用は、説明責任、透明性、責任に関する疑問を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision support is increasingly used in a whole array of
different contexts and structures in various areas of society, influencing many
people's lives. Its use raises questions, among others, about accountability,
transparency and responsibility. While there is substantial research on the
issue of algorithmic systems and responsibility in general, there is little to
no prior research on organisational responsibility and its attribution. Our
article aims to fill that gap; we give a brief overview of the central issues
connected to ADS, responsibility and decision-making in organisational contexts
and identify open questions and research gaps. Furthermore, we describe a set
of guidelines and a complementary digital tool to assist practitioners in
mapping responsibility when introducing ADS within their organisational
context.
- Abstract(参考訳): アルゴリズムによる意思決定支援は、社会の様々な分野における様々な文脈や構造においてますます使われ、多くの人々の生活に影響を与えている。
その使用は、説明責任、透明性、責任に関する疑問を提起する。
アルゴリズムシステムと責任全般に関する実質的な研究は存在するが、組織的責任とその帰属に関する以前の研究はほとんど、あるいは全くない。
私たちは、組織的なコンテキストにおける広告、責任、意思決定に関連する中心的な問題の概要を説明し、オープンな質問と研究のギャップを特定します。
さらに,ADSを組織的コンテキストに導入する際に,実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
関連論文リスト
- Responsible AI Governance: A Systematic Literature Review [8.318630741859113]
本稿では,AIガバナンスに関する既存の文献を検討することを目的とする。
WHOはAIシステムのガバナンスに責任を持ち、WHAT要素は管理されており、WHENガバナンスはAI開発ライフサイクル内で発生し、HOWはフレームワーク、ツール、標準、ポリシー、モデルといった様々なメカニズムによって実行される。
本研究の成果は,RAI原則に沿った包括的ガバナンスモデルの研究・開発の基礎となるものである。
論文 参考訳(メタデータ) (2023-12-18T05:22:36Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - Unravelling Responsibility for AI [4.651940161506203]
本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Multi-Scenario Empirical Assessment of Agile Governance Theory: A
Technical Report [55.2480439325792]
アジャイルガバナンス理論(AGT)は、ビジネスユニットやチーム間での責任の組織的連鎖の潜在的なモデルとして登場した。
本研究は,AGTが実際にどのように反映されているかを評価することを目的とする。
論文 参考訳(メタデータ) (2023-07-03T18:50:36Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung [0.0]
アルゴリズム決定サポート(ADS)は、さまざまなコンテキストや構造の配列全体において、ますます使われている。
本稿は、組織におけるADS、責任、意思決定に関連する中心的な問題について、簡単な概要を述べることを目的としている。
本稿では,ADS導入時の実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
論文 参考訳(メタデータ) (2022-07-21T13:45:10Z) - The Conflict Between Explainable and Accountable Decision-Making
Algorithms [10.64167691614925]
意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
論文 参考訳(メタデータ) (2022-05-11T07:19:28Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - A game-theoretic analysis of networked system control for common-pool
resource management using multi-agent reinforcement learning [54.55119659523629]
マルチエージェント強化学習は近年,ネットワーク型システム制御へのアプローチとして大きな可能性を秘めている。
共通プールの資源は耕作可能な土地、淡水、湿地、野生生物、魚類資源、森林、大気である。
論文 参考訳(メタデータ) (2020-10-15T14:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。