論文の概要: Speculations on Uncertainty and Humane Algorithms
- arxiv url: http://arxiv.org/abs/2408.06736v1
- Date: Tue, 13 Aug 2024 08:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 18:07:03.023914
- Title: Speculations on Uncertainty and Humane Algorithms
- Title(参考訳): 不確かさと人間性アルゴリズムの推測
- Authors: Nicholas Gray,
- Abstract要約: Provenanceは、アルゴリズムが危険を防ぐために何を知っているかを知ることを可能にする。
正当でない、あるいは不可能な仮定をするよりも、私たちが知っていることを計算することが不可欠です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The appreciation and utilisation of risk and uncertainty can play a key role in helping to solve some of the many ethical issues that are posed by AI. Understanding the uncertainties can allow algorithms to make better decisions by providing interrogatable avenues to check the correctness of outputs. Allowing algorithms to deal with variability and ambiguity with their inputs means they do not need to force people into uncomfortable classifications. Provenance enables algorithms to know what they know preventing possible harms. Additionally, uncertainty about provenance highlights the trustworthiness of algorithms. It is essential to compute with what we know rather than make assumptions that may be unjustified or untenable. This paper provides a perspective on the need for the importance of risk and uncertainty in the development of ethical AI, especially in high-risk scenarios. It argues that the handling of uncertainty, especially epistemic uncertainty, is critical to ensuring that algorithms do not cause harm and are trustworthy and ensure that the decisions that they make are humane.
- Abstract(参考訳): リスクと不確実性の認識と活用は、AIによって引き起こされる多くの倫理的問題の解決を支援する上で重要な役割を果たします。
不確実性を理解することは、アルゴリズムが出力の正確性をチェックするための疑わしい方法を提供することによって、より良い決定を下すことを可能にする。
アルゴリズムが入力の多様性とあいまいさに対処できることは、人々に不快な分類を強制する必要がないことを意味する。
Provenanceは、アルゴリズムが危険を防ぐために何を知っているかを知ることを可能にする。
さらに、証明に関する不確実性は、アルゴリズムの信頼性を強調します。
正当でない、あるいは不可能な仮定をするよりも、私たちが知っていることを計算することが不可欠です。
本稿では、特にリスクの高いシナリオにおいて、倫理的AIの開発におけるリスクと不確実性の重要性について考察する。
不確実性(特に疫学的な不確実性)の扱いは、アルゴリズムが害を起こさないこと、信頼に値すること、そしてそれらが行う決定が人間であることを保証するために重要である、と論じている。
関連論文リスト
- Integrating Expert Judgment and Algorithmic Decision Making: An Indistinguishability Framework [12.967730957018688]
予測と意思決定タスクにおける人間とAIの協調のための新しい枠組みを導入する。
我々の手法は人間の判断を利用して、アルゴリズム的に区別できない入力を区別する。
論文 参考訳(メタデータ) (2024-10-11T13:03:53Z) - A Structured Review of Literature on Uncertainty in Machine Learning & Deep Learning [0.8667724053232616]
我々は、リスクに敏感なアプリケーション、すなわち不確実性を理解し、定量化するアプリケーションにおいて、機械学習を適応するための重要な関心事に焦点を当てる。
本稿では,このトピックを構造化した方法でアプローチし,不確実性がMLプロセスに封入されているというさまざまな側面の文献をレビューする。
このレビューの主な貢献は、不確実性議論の範囲を広げ、Deep Learningにおける不確実性定量化手法のレビューを更新することである。
論文 参考訳(メタデータ) (2024-06-01T07:17:38Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
リスクファクターがすべて観察されているという仮定を完全に取り除いたり緩和したりしても、ハイリスクな個人に治療率に有意義な限界を与えることができることを示す。
既存の意思決定システムの不公平な結果を原則的に評価することができる。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Building Safe and Reliable AI systems for Safety Critical Tasks with
Vision-Language Processing [1.2183405753834557]
現在のAIアルゴリズムでは、障害検出の一般的な原因を特定できない。
予測の質を定量化するためには、追加のテクニックが必要である。
この論文は、分類、画像キャプション、視覚質問応答といったタスクのための視覚言語データ処理に焦点を当てる。
論文 参考訳(メタデータ) (2023-08-06T18:05:59Z) - Influence of the algorithm's reliability and transparency in the user's
decision-making process [0.0]
我々は61人の参加者とともにオンライン実験を行い、アルゴリズムの透明性と信頼性の変化がユーザーの意思決定プロセスにどのように影響するかを調べる。
その結果,信頼性が悪くても,アルゴリズムの判断にある程度の信頼感が示されることがわかった。
論文 参考訳(メタデータ) (2023-07-13T03:13:49Z) - Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications [56.130945359053776]
NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
論文 参考訳(メタデータ) (2023-06-05T06:46:53Z) - Distributional Actor-Critic Ensemble for Uncertainty-Aware Continuous
Control [13.767812547998735]
不確実性定量化は、現実世界のアプリケーションにおける機械学習における中心的な課題の1つである。
不確かさの解消と評価を同時に行うことは、エージェントの最終的なパフォーマンスを改善するチャンスである。
連続制御タスクに対する不確実性を考慮した強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-27T18:11:04Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。