論文の概要: AI, Opacity, and Personal Autonomy
- arxiv url: http://arxiv.org/abs/2210.08995v1
- Date: Sun, 25 Sep 2022 23:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 20:51:51.377499
- Title: AI, Opacity, and Personal Autonomy
- Title(参考訳): AI、Opacity、そして個人的自律性
- Authors: Bram Vaassen
- Abstract要約: 機械学習の進歩は、保釈聴聞のような手続きでAI決定アルゴリズムを使うことの人気を後押ししている。
私は、まだ文献で体系的な扱いを受けていない不透明なアルゴリズムに対する道徳的な懸念を定式化します。
この懸念は、意思決定における透明性を求める上で、より深い注意を払うべきものだ、と私は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in machine learning have fuelled the popularity of using AI
decision algorithms in procedures such as bail hearings (Feller et al. 2016),
medical diagnoses (Rajkomar et al. 2018; Esteva et al. 2019) and recruitment
(Heilweil 2019, Van Esch et al. 2019). Academic articles (Floridi et al. 2018),
policy texts (HLEG 2019), and popularizing books (O'Neill 2016, Eubanks 2018)
alike warn that such algorithms tend to be _opaque_: they do not provide
explanations for their outcomes. Building on a causal account of transparency
and opacity as well as recent work on the value of causal explanation (Lombrozo
2011, Hitchcock 2012), I formulate a moral concern for opaque algorithms that
is yet to receive a systematic treatment in the literature: when such
algorithms are used in life-changing decisions, they can obstruct us from
effectively shaping our lives according to our goals and preferences, thus
undermining our autonomy. I argue that this concern deserves closer attention
as it furnishes the call for transparency in algorithmic decision-making with
both new tools and new challenges.
- Abstract(参考訳): 機械学習の進歩は、保釈聴聞会(feller et al. 2016)、医療診断(rajkomar et al. 2018; esteva et al. 2019)、リクルート(heilweil 2019, van esch et al. 2019)などの手続きでai決定アルゴリズムを使用するという人気を高めた。
学術論文(Floridi et al. 2018)、ポリシーテキスト(HLEG 2019)、書籍の普及(O'Neill 2016 Eubanks 2018)は、このようなアルゴリズムが_opaque_である傾向があることを警告している。
透明性と不透明性の因果的説明と、因果的説明の価値に関する最近の研究(Lombrozo 2011, Hitchcock 2012)に基づいて、私は文学においてまだ体系的な扱いを受けていない不透明なアルゴリズムに対して道徳的な懸念を定めています。
この懸念は、新しいツールと新しい課題の両方でアルゴリズムによる意思決定の透明性を求める上で、より深い注意を払っていると思います。
関連論文リスト
- Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI [7.881140597011731]
反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
論文 参考訳(メタデータ) (2023-01-27T19:58:12Z) - From Explanation to Recommendation: Ethical Standards for Algorithmic
Recourse [0.0]
我々は、リコースは、説明問題ではなく、レコメンデーション問題と見なされるべきであると主張する。
本稿では,アルゴリズム的言論における多様性制約について考察する。
論文 参考訳(メタデータ) (2022-05-30T20:09:42Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Beyond Value-Function Gaps: Improved Instance-Dependent Regret Bounds
for Episodic Reinforcement Learning [50.44564503645015]
有限エピソードマルコフ決定過程における強化学習のための改良されたギャップ依存的後悔境界を提供する。
楽観的なアルゴリズムでは,より強い後悔境界を証明し,多数のMDPに対して新たな情報理論的下限を伴う。
論文 参考訳(メタデータ) (2021-07-02T20:36:05Z) - Algorithmic Transparency with Strategic Users [9.289838852590732]
企業がそれを透明化すれば、機械学習アルゴリズムの予測能力も増大する可能性がある。
場合によっては、機械学習アルゴリズムの予測能力さえも、企業がそれを透明にすれば増大する可能性があることを、私たちは示しています。
論文 参考訳(メタデータ) (2020-08-21T03:10:42Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - LimeOut: An Ensemble Approach To Improve Process Fairness [8.9379057739817]
プロセスの公平性に対処するために、"機能的なドロップアウト"に依存するフレームワークを提案する。
我々は「LIME Explanations」を用いて分類器の公平さを評価し、削除すべき感度のある特徴を判定する。
これは、アンサンブルが経験的に感度の低い特徴に依存せず、精度に改善または全く影響しないように示される分類器のプールを生成する。
論文 参考訳(メタデータ) (2020-06-17T09:00:58Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。