論文の概要: Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung
- arxiv url: http://arxiv.org/abs/2207.10479v1
- Date: Thu, 21 Jul 2022 13:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:31:32.976885
- Title: Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung
- Title(参考訳): Wer is schuld, wenn Algorithmen irren?
組織・組織・組織
- Authors: Angelika Adensamer and Rita Gsenger and Lukas Daniel Klausner
- Abstract要約: アルゴリズム決定サポート(ADS)は、さまざまなコンテキストや構造の配列全体において、ますます使われている。
本稿は、組織におけるADS、責任、意思決定に関連する中心的な問題について、簡単な概要を述べることを目的としている。
本稿では,ADS導入時の実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision support (ADS) is increasingly used in a whole array of
different contexts and structures in various areas of society, influencing many
people's lives. Its use raises questions, among others, about accountability,
transparency and responsibility. Our article aims to give a brief overview of
the central issues connected to ADS, responsibility and decision-making in
organisational contexts and identify open questions and research gaps.
Furthermore, we describe a set of guidelines and a complementary digital tool
to assist practitioners in mapping responsibility when introducing ADS within
their organisational context.
--
Algorithmenunterst\"utzte Entscheidungsfindung (algorithmic decision support,
ADS) kommt in verschiedenen Kontexten und Strukturen vermehrt zum Einsatz und
beeinflusst in diversen gesellschaftlichen Bereichen das Leben vieler Menschen.
Ihr Einsatz wirft einige Fragen auf, unter anderem zu den Themen Rechenschaft,
Transparenz und Verantwortung. Im Folgenden m\"ochten wir einen \"Uberblick
\"uber die wichtigsten Fragestellungen rund um ADS, Verantwortung und
Entscheidungsfindung in organisationalen Kontexten geben und einige offene
Fragen und Forschungsl\"ucken aufzeigen. Weiters beschreiben wir als konkrete
Hilfestellung f\"ur die Praxis einen von uns entwickelten Leitfaden samt
erg\"anzendem digitalem Tool, welches Anwender:innen insbesondere bei der
Verortung und Zuordnung von Verantwortung bei der Nutzung von ADS in
organisationalen Kontexten helfen soll.
- Abstract(参考訳): アルゴリズム決定支援(ADS)は、社会の様々な領域における様々な状況や構造において、多くの人々の生活に影響を与える。
その使用は、説明責任、透明性、責任に関する疑問を提起する。
この記事では、組織的コンテキストにおける広告、責任、意思決定に関連する中心的な問題の概要と、オープン質問と研究ギャップの特定を目的としています。
さらに,ADSを組織的コンテキストに導入する際に,実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
-Algorithmenunterst\"utzte Entscheidungsfindung (algorithmic decision support, ADS) kommt in verschieden Kontexten und Strukturen vermehrt zum Einsatz und beeinflusst in variousn gesellschaftlichen Bereichen das Leben vieler Menschen。
Ihr Einsatz wirft einige Fragen auf, unter anderem zu den Themen Rechenschaft, Transparenz und Verantwortung
folgenden m\"ochten wir einen \"uberblick \"uber die wichtigsten fragestellungen rund um ads, verantwortung und entscheidungsfindung in organisationalen kontexten geben und einige offene fragen und forschungsl\"ucken aufzeigen
英語: Weiters beschreiben wir als konkrete Hilfestellung f\"ur die Praxis einen von uns entwickelten Leitfaden samt erg\"anzendem digitalem Tool, welches Anwender:innen insbesondere bei der Verortung und Zuordnung von Verantwortung bei der Nutzung von ADS in organisationalen Kontexten helfen soll。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Analysing and Organising Human Communications for AI Fairness-Related Decisions: Use Cases from the Public Sector [0.0]
多様な利害関係者間のコミュニケーション問題は、AIアルゴリズムの誤解釈と誤用につながる可能性がある。
我々は,公共部門におけるアルゴリズムシステムに取り組む実践者とのインタビューを行う。
公平性に関連する人間の決定を下すコミュニケーションプロセスの鍵となる要素を同定する。
論文 参考訳(メタデータ) (2024-03-20T14:20:42Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI [0.0]
この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - "There Is Not Enough Information": On the Effects of Explanations on
Perceptions of Informational Fairness and Trustworthiness in Automated
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
我々は,情報の公平さに対する人々の認識を評価するために,人間による研究を行う。
定性的フィードバックの包括的分析は、説明のために人々のデシラタに光を当てる。
論文 参考訳(メタデータ) (2022-05-11T20:06:03Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - "Computer Says No": Algorithmic Decision Support and Organisational
Responsibility [0.0]
アルゴリズムによる決定サポートは、さまざまなコンテキストや構造全体において、ますます利用されています。
その利用は、説明責任、透明性、責任に関する疑問を提起する。
論文 参考訳(メタデータ) (2021-10-21T10:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。