論文の概要: Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This
- arxiv url: http://arxiv.org/abs/2111.07545v1
- Date: Mon, 15 Nov 2021 05:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:28:06.678357
- Title: Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This
- Title(参考訳): ランダムな分類と人間の意思決定 - 信頼できるAIはランダムに行動しなければならないかもしれない
- Authors: G\'abor Erd\'elyi, Olivia J. Erd\'elyi, and Vladimir Estivill-Castro
- Abstract要約: 我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
- 参考スコア(独自算出の注目度): 0.8889304968879161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As \emph{artificial intelligence} (AI) systems are increasingly involved in
decisions affecting our lives, ensuring that automated decision-making is fair
and ethical has become a top priority. Intuitively, we feel that akin to human
decisions, judgments of artificial agents should necessarily be grounded in
some moral principles. Yet a decision-maker (whether human or artificial) can
only make truly ethical (based on any ethical theory) and fair (according to
any notion of fairness) decisions if full information on all the relevant
factors on which the decision is based are available at the time of
decision-making. This raises two problems: (1) In settings, where we rely on AI
systems that are using classifiers obtained with supervised learning, some
induction/generalization is present and some relevant attributes may not be
present even during learning. (2) Modeling such decisions as games reveals that
any -- however ethical -- pure strategy is inevitably susceptible to
exploitation.
Moreover, in many games, a Nash Equilibrium can only be obtained by using
mixed strategies, i.e., to achieve mathematically optimal outcomes, decisions
must be randomized. In this paper, we argue that in supervised learning
settings, there exist random classifiers that perform at least as well as
deterministic classifiers, and may hence be the optimal choice in many
circumstances. We support our theoretical results with an empirical study
indicating a positive societal attitude towards randomized artificial
decision-makers, and discuss some policy and implementation issues related to
the use of random classifiers that relate to and are relevant for current AI
policy and standardization initiatives.
- Abstract(参考訳): emph{artificial intelligence} (ai) システムは,私たちの生活に影響を与える意思決定にますます関与しているため,意思決定の自動化が公正であり,倫理が最優先事項となっている。
直感的には、人間の決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者(人間であれ人であれ)が真に倫理的な(いかなる倫理理論に基づいても)決定を下すことができるのは、意思決定時にその決定が下されるすべての関連する要因についての完全な情報が得られる場合のみである。
1) 教師付き学習で得られた分類器を利用するAIシステムを利用する場合、帰納的/一般化がいくつか存在し、学習中にも関連する属性が存在しない場合がある。
2) ゲームのような決定をモデル化すると、倫理的ではあるが純粋な戦略は必然的に搾取に影響を受けやすいことが明らかになる。
さらに、多くのゲームでは、ナッシュ均衡は混合戦略、すなわち数学的に最適な結果を達成するために、決定をランダム化することによってのみ得られる。
本稿では、教師付き学習環境において、少なくとも決定論的分類器と同様にランダムな分類器が存在するため、多くの状況において最適な選択である可能性があると論じる。
我々は、ランダム化された人工意思決定者に対する肯定的な社会的態度を示す実証研究を行い、現在のai政策および標準化イニシアチブに関連し関連するランダム分類器の使用に関連する政策および実施問題について論じる。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Does AI help humans make better decisions? A statistical evaluation framework for experimental and observational studies [0.43981305860983716]
我々は、人間とAI、AIの3つの代替意思決定システムのパフォーマンスを比較する方法を示す。
リスクアセスメントの勧告は、現金保釈を課す裁判官の決定の分類精度を向上しないことがわかった。
論文 参考訳(メタデータ) (2024-03-18T01:04:52Z) - Conformal Decision Theory: Safe Autonomous Decisions from Imperfect Predictions [80.34972679938483]
不完全な機械学習予測にも拘わらず、安全な自律的意思決定を実現するためのフレームワークであるコンフォーマル決定理論を導入する。
私たちのアルゴリズムが生み出す決定は、リスクが低いという証明可能な統計的保証があるという意味では安全です。
実験は、人間のまわりのロボットの動き計画、自動株式取引、ロボット製造において、我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-09T17:59:30Z) - Fairness Implications of Heterogeneous Treatment Effect Estimation with
Machine Learning Methods in Policy-making [0.0]
予測機械学習の標準的なAIフェアネスアプローチは、すべての因果機械学習アプリケーションに適していないと我々は主張する。
政策決定は、通常、因果的機械学習モデルが間接的な力しか持たないような共同決定である、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-02T03:06:14Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Why we need biased AI -- How including cognitive and ethical machine
biases can enhance AI systems [0.0]
学習アルゴリズムにおける人間の認知バイアスの構造的実装について論じる。
倫理的マシン動作を達成するには、フィルタ機構を適用する必要がある。
本論文は、機械バイアスの倫理的重要性を再評価するアイデアを明示的に追求する最初の仮段階である。
論文 参考訳(メタデータ) (2022-03-18T12:39:35Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。