論文の概要: Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung
- arxiv url: http://arxiv.org/abs/2207.10479v1
- Date: Thu, 21 Jul 2022 13:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:31:32.976885
- Title: Wer ist schuld, wenn Algorithmen irren? Entscheidungsautomatisierung,
Organisationen und Verantwortung
- Title(参考訳): Wer is schuld, wenn Algorithmen irren?
組織・組織・組織
- Authors: Angelika Adensamer and Rita Gsenger and Lukas Daniel Klausner
- Abstract要約: アルゴリズム決定サポート(ADS)は、さまざまなコンテキストや構造の配列全体において、ますます使われている。
本稿は、組織におけるADS、責任、意思決定に関連する中心的な問題について、簡単な概要を述べることを目的としている。
本稿では,ADS導入時の実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision support (ADS) is increasingly used in a whole array of
different contexts and structures in various areas of society, influencing many
people's lives. Its use raises questions, among others, about accountability,
transparency and responsibility. Our article aims to give a brief overview of
the central issues connected to ADS, responsibility and decision-making in
organisational contexts and identify open questions and research gaps.
Furthermore, we describe a set of guidelines and a complementary digital tool
to assist practitioners in mapping responsibility when introducing ADS within
their organisational context.
--
Algorithmenunterst\"utzte Entscheidungsfindung (algorithmic decision support,
ADS) kommt in verschiedenen Kontexten und Strukturen vermehrt zum Einsatz und
beeinflusst in diversen gesellschaftlichen Bereichen das Leben vieler Menschen.
Ihr Einsatz wirft einige Fragen auf, unter anderem zu den Themen Rechenschaft,
Transparenz und Verantwortung. Im Folgenden m\"ochten wir einen \"Uberblick
\"uber die wichtigsten Fragestellungen rund um ADS, Verantwortung und
Entscheidungsfindung in organisationalen Kontexten geben und einige offene
Fragen und Forschungsl\"ucken aufzeigen. Weiters beschreiben wir als konkrete
Hilfestellung f\"ur die Praxis einen von uns entwickelten Leitfaden samt
erg\"anzendem digitalem Tool, welches Anwender:innen insbesondere bei der
Verortung und Zuordnung von Verantwortung bei der Nutzung von ADS in
organisationalen Kontexten helfen soll.
- Abstract(参考訳): アルゴリズム決定支援(ADS)は、社会の様々な領域における様々な状況や構造において、多くの人々の生活に影響を与える。
その使用は、説明責任、透明性、責任に関する疑問を提起する。
この記事では、組織的コンテキストにおける広告、責任、意思決定に関連する中心的な問題の概要と、オープン質問と研究ギャップの特定を目的としています。
さらに,ADSを組織的コンテキストに導入する際に,実践者の責任マッピングを支援するためのガイドラインと補完的デジタルツールについて述べる。
-Algorithmenunterst\"utzte Entscheidungsfindung (algorithmic decision support, ADS) kommt in verschieden Kontexten und Strukturen vermehrt zum Einsatz und beeinflusst in variousn gesellschaftlichen Bereichen das Leben vieler Menschen。
Ihr Einsatz wirft einige Fragen auf, unter anderem zu den Themen Rechenschaft, Transparenz und Verantwortung
folgenden m\"ochten wir einen \"uberblick \"uber die wichtigsten fragestellungen rund um ads, verantwortung und entscheidungsfindung in organisationalen kontexten geben und einige offene fragen und forschungsl\"ucken aufzeigen
英語: Weiters beschreiben wir als konkrete Hilfestellung f\"ur die Praxis einen von uns entwickelten Leitfaden samt erg\"anzendem digitalem Tool, welches Anwender:innen insbesondere bei der Verortung und Zuordnung von Verantwortung bei der Nutzung von ADS in organisationalen Kontexten helfen soll。
関連論文リスト
- Red-Teaming for Generative AI: Silver Bullet or Security Theater? [48.14185138002871]
我々は、AI産業における最近の赤チーム活動の事例を特定し、関連する研究文献を広範囲に調査し、AI赤チーム実践のスコープ、構造、基準を特徴づける。
分析の結果,活動の目的,評価対象のアーティファクト,活動の実施状況,その結果の判断など,AIの事前の方法と実践が複数の軸に沿って分散していることが判明した。
我々は、レッドチーム化は、GenAIモデルの行動改善を目的とした幅広い活動と態度を特徴付ける上で、価値ある大胆なアイデアであるかもしれないと論じる。
論文 参考訳(メタデータ) (2024-01-29T05:46:14Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - ChoiceMates: Supporting Unfamiliar Online Decision-Making with
Multi-Agent Conversational Interactions [58.71970923420007]
提案するChoiceMatesは,LLMエージェントの動的セットとの対話を可能にするシステムである。
エージェントは、意見のあるペルソナとして、柔軟に会話に参加し、応答を提供するだけでなく、各エージェントの好みを引き出すために互いに会話する。
ChoiceMatesを従来のWeb検索とシングルエージェントと比較した結果,ChoiceMatesはより信頼性の高いWebと比較して,発見,潜水,情報管理に有用であることが判明した。
論文 参考訳(メタデータ) (2023-10-02T16:49:39Z) - Unravelling Responsibility for AI [4.651940161506203]
本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - AVIS: Autonomous Visual Information Seeking with Large Language Model
Agent [123.75169211547149]
本稿では,視覚的質問応答フレームワークAVISを提案する。
本手法は,LLM(Large Language Model)を利用して外部ツールの利用を動的に強化する。
AVIS は Infoseek や OK-VQA などの知識集約型視覚質問応答ベンチマークの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-06-13T20:50:22Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - "There Is Not Enough Information": On the Effects of Explanations on
Perceptions of Informational Fairness and Trustworthiness in Automated
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
我々は,情報の公平さに対する人々の認識を評価するために,人間による研究を行う。
定性的フィードバックの包括的分析は、説明のために人々のデシラタに光を当てる。
論文 参考訳(メタデータ) (2022-05-11T20:06:03Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - "Computer Says No": Algorithmic Decision Support and Organisational
Responsibility [0.0]
アルゴリズムによる決定サポートは、さまざまなコンテキストや構造全体において、ますます利用されています。
その利用は、説明責任、透明性、責任に関する疑問を提起する。
論文 参考訳(メタデータ) (2021-10-21T10:24:47Z) - Perceptions of Fairness and Trustworthiness Based on Explanations in
Human vs. Automated Decision-Making [0.0]
自動意思決定システム(ADS)は、多くのハイテイク領域で広く普及している。
我々は200人の参加者とともにオンライン調査を行い、ADSに対する公正性と信頼性に対する人々の認識を調べる。
ADSは人間の意思決定者よりも公平だと考える人が多い。
論文 参考訳(メタデータ) (2021-09-13T09:14:15Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。