論文の概要: Legitimacy, Authority, and the Political Value of Explanations
- arxiv url: http://arxiv.org/abs/2208.08628v3
- Date: Thu, 8 Dec 2022 05:00:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:34:35.524795
- Title: Legitimacy, Authority, and the Political Value of Explanations
- Title(参考訳): 正当性、権威、そして説明の政治的価値
- Authors: Seth Lazar
- Abstract要約: 複雑で不可分な計算システムは、既存の電力関係を強化するために使われている。
権力関係は、手続き的正当性と適切な権限の基準を満たす必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasingly secret, complex and inscrutable computational systems are being
used to intensify existing power relations, and to create new ones (Section
II). To be all-things-considered morally permissible, new, or newly intense,
power relations must in general meet standards of procedural legitimacy and
proper authority (Section III). Legitimacy and authority constitutively depend,
in turn, on a publicity requirement: reasonably competent members of the
political community in which power is being exercised must be able to determine
that power is being exercised legitimately and with proper authority (Section
IV). The publicity requirement can be satisfied only if the powerful can
explain their decision-making (including the computational tools that they use
to support it) to members of their political community. Section V applies these
ideas to opaque computational systems. Section VI addresses objections; Section
VII concludes.
- Abstract(参考訳): ますます秘密で複雑で精細な計算システムは、既存の電力関係の強化や新しい電力関係の創出に使われている(第2節)。
道徳的に許容され、新しく、あるいは新たに強烈な権力関係になるためには、一般的に手続き上の正当性と適切な権威の基準を満たす必要がある(第三章)。
権力が行使されている政治共同体の合理的に有能な構成員は、権限が正当かつ適切な権限で行使されていると判断しなくてはならない(第4節)。
宣伝要件は、権力者が自らの意思決定(それを支援するために使用する計算ツールを含む)を政治コミュニティのメンバーに説明できる場合にのみ満足できる。
セクション5は、これらのアイデアを不透明な計算システムに適用する。
第6節は異議を唱え、第7節は終了する。
関連論文リスト
- Fair Enough? A map of the current limitations of the requirements to
have "fair" algorithms [46.20942922922006]
自動意思決定システムはバイアスや不当な格差を永久に、あるいは増幅することができる。
政策立案者を含む社会の層はますます「公正」なアルゴリズムを要求するようになった。
社会が自動意思決定システムから求めているものと、現実のシナリオにおいて実際に何を意味するものとの間には、行き詰まりがある。
論文 参考訳(メタデータ) (2023-11-21T08:44:38Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights,
and Duties [70.20460442039375]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Explanatory Publics: Explainability and Democratic Thought [0.0]
私は、説明する社会的権利によって正当化される知識の枠組みの必要性に身を寄せています。
国家が民主的と見なされるためには、市民が説明的思考の能力を高める必要がある。
これは、市民が社会における考え、実践、制度をより一般的に問うことができる公共領域の概念を拡張することである。
論文 参考訳(メタデータ) (2023-04-04T20:25:13Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Democratization of Quantum Technologies [0.0]
民主主義は、主に量子コンピューティングに取り組んでいる企業によって採用され、その概念の非常に狭い理解に使われている。
我々は、QT分野におけるアクターが採用する物語や行動に対するより反射性や反応性が向上し、QTの民主化に向けた継続的な取り組みの前提となる仮定が社会により良い技術をもたらすと論じている。
論文 参考訳(メタデータ) (2022-08-05T19:23:09Z) - Interpretable Reinforcement Learning with Multilevel Subgoal Discovery [77.34726150561087]
離散環境のための新しい強化学習モデルを提案する。
モデルでは、エージェントは確率的ルールの形で環境に関する情報を学習する。
学習には報酬関数は不要であり、エージェントは達成するための第一の目標のみを与える必要がある。
論文 参考訳(メタデータ) (2022-02-15T14:04:44Z) - Governing online goods: Maturity and formalization in Minecraft, Reddit,
and World of Warcraft communities [0.0]
コミュニティの構築は、アクティブな人口と限られた資源の管理を意味する。
この研究は、サンドボックスゲームMinecraft、MMOゲームWorld of Warcraft、Redditの3つのプラットフォームにわたる80,000のコミュニティに対して、制度分析フレームワークを適用した。
オンラインコミュニティはプラットフォーム全体で同様のガバナンススタイルを採用しており、要件を"強く"する"ために"弱い"規範を強く好んでいます。
論文 参考訳(メタデータ) (2022-02-02T22:45:21Z) - Toward a Theory of Justice for Artificial Intelligence [2.28438857884398]
社会の基本構造は、社会技術システムの複合体として理解されるべきである。
結果として、平等主義的な正義の規範は、これらの文脈に展開されるときにその技術に適用される。
論文 参考訳(メタデータ) (2021-10-27T13:23:38Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Reasonable Machines: A Research Manifesto [0.0]
信頼の健全なエコシステムは、彼らの行動が自律的に正当化される方法を必要とします。
道徳的・法的哲学のような社会的推論モデルに基づく。
規範的コミュニケーションを実現することは、信頼を生み出し、AIアプリケーションの新しい次元を開く。
論文 参考訳(メタデータ) (2020-08-14T08:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。