論文の概要: Fiduciary Responsibility: Facilitating Public Trust in Automated
Decision Making
- arxiv url: http://arxiv.org/abs/2301.10001v1
- Date: Fri, 6 Jan 2023 18:19:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-29 13:40:15.194985
- Title: Fiduciary Responsibility: Facilitating Public Trust in Automated
Decision Making
- Title(参考訳): 財政責任:自動意思決定における公共信頼の実現
- Authors: Shannon B. Harper and Eric S. Weber
- Abstract要約: 研究と実世界の経験は、公衆が自動意思決定システムへの信頼を欠いていることを示している。
リレーレンシーの定理は、これらの機関が彼らの財政的責任を果たすならば、国民は自動的な意思決定システムによってなされた決定を信頼し、支持する傾向にある、と論じている。
本稿では,自動意思決定システムにおける業務責任の役割を定義し,説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated decision-making systems are being increasingly deployed and affect
the public in a multitude of positive and negative ways. Governmental and
private institutions use these systems to process information according to
certain human-devised rules in order to address social problems or
organizational challenges. Both research and real-world experience indicate
that the public lacks trust in automated decision-making systems and the
institutions that deploy them. The recreancy theorem argues that the public is
more likely to trust and support decisions made or influenced by automated
decision-making systems if the institutions that administer them meet their
fiduciary responsibility. However, often the public is never informed of how
these systems operate and resultant institutional decisions are made. A ``black
box'' effect of automated decision-making systems reduces the public's
perceptions of integrity and trustworthiness. The result is that the public
loses the capacity to identify, challenge, and rectify unfairness or the costs
associated with the loss of public goods or benefits.
The current position paper defines and explains the role of fiduciary
responsibility within an automated decision-making system. We formulate an
automated decision-making system as a data science lifecycle (DSL) and examine
the implications of fiduciary responsibility within the context of the DSL.
Fiduciary responsibility within DSLs provides a methodology for addressing the
public's lack of trust in automated decision-making systems and the
institutions that employ them to make decisions affecting the public. We posit
that fiduciary responsibility manifests in several contexts of a DSL, each of
which requires its own mitigation of sources of mistrust. To instantiate
fiduciary responsibility, a Los Angeles Police Department (LAPD) predictive
policing case study is examined.
- Abstract(参考訳): 自動意思決定システムは、さまざまな肯定的かつ否定的な方法で、ますます普及し、大衆に影響を与える。
政府や民間機関はこれらのシステムを使用して、社会問題や組織的課題に対処するために、特定の人間によって規定されたルールに従って情報を処理する。
研究と実世界の経験は、公衆が自動意思決定システムとそれらを展開する機関への信頼を欠いていることを示している。
帰納定理(recreancy theorem)は、行政機関が行政責任を負うならば、国民は自動意思決定システムによってなされた決定や影響を信頼し、支援する可能性が高いと主張している。
しかし、一般にはこれらのシステムがどのように機能しているかを知らされず、結果として組織的な決定が行われることが多い。
自動意思決定システムによる‘ブラックボックス’の効果は、完全性と信頼性に対する大衆の認識を減少させる。
その結果、公共の商品や利益の喪失に伴う不公平さやコストを特定し、挑戦し、修正する能力を失うことになる。
現在のポジションペーパーでは、自動意思決定システムにおける義務の役割を定義し説明する。
本稿では、データサイエンスライフサイクル(DSL)として自動意思決定システムを定式化し、DSLのコンテキスト内での業務責任の影響について検討する。
DSLにおける財政的な責任は、自動意思決定システムに対する国民の信頼の欠如に対処するための方法論を提供する。
我々は,DSL の複数の文脈において,ファデューシャルな責任が顕在化し,それぞれが自身の不信源の緩和を必要とすることを仮定する。
受託者の責任を立証するために、ロサンゼルス警察(lapd)の予測警察ケーススタディを調査した。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - A Trust Framework for Government Use of Artificial Intelligence and
Automated Decision Making [0.1527458325979785]
本稿では,公共セクターシステムとプロセスの機械化,デジタル化,自動化の課題を明らかにする。
公立機関において、倫理的かつ高い精度の人工知能(AI)や自動意思決定(ADM)システムを保証するための近代的で実践的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-08-22T06:51:15Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Adaptive Autonomy in Human-on-the-Loop Vision-Based Robotics Systems [16.609594839630883]
コンピュータビジョンのアプローチは、自律ロボットシステムによって意思決定の指針として広く使われている。
特に人間が監督的な役割しか果たさないHuman-on-the-loop(HoTL)システムでは、高精度が重要です。
適応的自律性レベルに基づくソリューションを提案し,これらのモデルの信頼性の低下を検出する。
論文 参考訳(メタデータ) (2021-03-28T05:43:10Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Accuracy-Efficiency Trade-Offs and Accountability in Distributed ML
Systems [32.79201607581628]
正確性と効率性の間のトレードオフ 法、公衆衛生、その他の非計算領域。
これらのトレードオフを調べることは、他のドメインのガバナンスを導くのに有用であるので、コンピュータシステムを管理する上でも同様にこれらのトレードオフに言及する必要がある、と私たちは主張する。
論文 参考訳(メタデータ) (2020-07-04T23:00:52Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Modeling Perception Errors towards Robust Decision Making in Autonomous
Vehicles [11.503090828741191]
意思決定サブシステムが堅牢で安全な判断を下すのに十分な認識サブシステムは十分か?
自律システムの挙動に異なる種類の知覚・知覚誤差が与える影響を解析する方法を示す。
論文 参考訳(メタデータ) (2020-01-31T08:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。