論文の概要: Legitimacy, Authority, and Democratic Duties of Explanation
- arxiv url: http://arxiv.org/abs/2208.08628v4
- Date: Wed, 11 Oct 2023 12:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 16:41:45.793140
- Title: Legitimacy, Authority, and Democratic Duties of Explanation
- Title(参考訳): 説明の正当性、権限、民主的な義務
- Authors: Seth Lazar
- Abstract要約: 秘密で複雑で不可解な計算システムは、既存の電力関係を強化するために使われている。
本稿では,まず不透明な計算システムに適用し,民主的価値を満たすためにどのような説明が必要なのかを明確にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasingly secret, complex and inscrutable computational systems are being
used to intensify existing power relations and to create new ones; in
particular, they are being used to govern. To be all-things-considered morally
permissible new, or newly intense, power relations must meet standards of
procedural legitimacy and proper authority. This is necessary for them to
protect and realise democratic values of individual liberty, relational
equality, and collective self-determination. For governing power in particular
to be legitimate and have proper authority, it must meet a publicity
requirement: reasonably competent members of the governed community must be
able to determine that they are being governed legitimately and with proper
authority. The publicity requirement can be satisfied only if the powerful can
explain their decision-making to members of their political community. At least
some duties of explanation are therefore democratic duties. This paper first
sets out the foregoing argument, then applies it to opaque computational
systems, and clarifies precisely what kinds of explanations are necessary to
fulfil these democratic values.
- Abstract(参考訳): 秘密化され、複雑化され、精査できない計算システムは、既存の権力関係を強化し、新しいものを作成するために使われており、特にそれらは統治するために使われている。
道徳的に許容される新しい、または新しく強い権力関係は、手続き的正当性と適切な権威の基準を満たさなければならない。
これは個人の自由、関係性平等、集団的自己決定の民主的価値を守り、実現する必要がある。
特に正当で適切な権限を有する権限を統治するためには、広報要件を満たさなければならない: 統治された共同体の有能なメンバーは、彼らが正当かつ適切な権威をもって統治されていると判断できなければならない。
権力者が自らの意思決定を政治コミュニティのメンバーに説明できる場合のみ、広報要件を満たすことができる。
少なくともいくつかの説明義務は民主的な義務である。
本稿はまず,先進的な議論を提起し,まず不透明な計算システムに適用し,これらの民主的価値を満たすためにどのような説明が必要なのかを明確化する。
関連論文リスト
- Toward Democracy Levels for AI [4.048639768405042]
我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - Can LLMs advance democratic values? [0.0]
LLMは、形式的な民主的意思決定プロセスから明確に守るべきである、と我々は主張する。
非公式な公共の場を強化するのに役立てることができる。
論文 参考訳(メタデータ) (2024-10-10T23:24:06Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Explanatory Publics: Explainability and Democratic Thought [0.0]
私は、説明する社会的権利によって正当化される知識の枠組みの必要性に身を寄せています。
国家が民主的と見なされるためには、市民が説明的思考の能力を高める必要がある。
これは、市民が社会における考え、実践、制度をより一般的に問うことができる公共領域の概念を拡張することである。
論文 参考訳(メタデータ) (2023-04-04T20:25:13Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Interpretable Reinforcement Learning with Multilevel Subgoal Discovery [77.34726150561087]
離散環境のための新しい強化学習モデルを提案する。
モデルでは、エージェントは確率的ルールの形で環境に関する情報を学習する。
学習には報酬関数は不要であり、エージェントは達成するための第一の目標のみを与える必要がある。
論文 参考訳(メタデータ) (2022-02-15T14:04:44Z) - Governing online goods: Maturity and formalization in Minecraft, Reddit,
and World of Warcraft communities [0.0]
コミュニティの構築は、アクティブな人口と限られた資源の管理を意味する。
この研究は、サンドボックスゲームMinecraft、MMOゲームWorld of Warcraft、Redditの3つのプラットフォームにわたる80,000のコミュニティに対して、制度分析フレームワークを適用した。
オンラインコミュニティはプラットフォーム全体で同様のガバナンススタイルを採用しており、要件を"強く"する"ために"弱い"規範を強く好んでいます。
論文 参考訳(メタデータ) (2022-02-02T22:45:21Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。