論文の概要: Foundational Moral Values for AI Alignment
- arxiv url: http://arxiv.org/abs/2311.17017v1
- Date: Tue, 28 Nov 2023 18:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:14:47.682375
- Title: Foundational Moral Values for AI Alignment
- Title(参考訳): aiアライメントの基礎的道徳価値観
- Authors: Betty Li Hou, Brian Patrick Green
- Abstract要約: 我々は、道徳哲学から引き出された5つの基本的価値観を提示し、生存、持続的世代間存在、社会、教育、真実という人間の生存に必要なものの上に構築する。
これらの価値は、技術的アライメント作業のためのより明確な方向を提供するだけでなく、これらの価値を取得し、維持するためのAIシステムからの脅威と機会を強調するためのフレームワークとしても役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving the AI alignment problem requires having clear, defensible values
towards which AI systems can align. Currently, targets for alignment remain
underspecified and do not seem to be built from a philosophically robust
structure. We begin the discussion of this problem by presenting five core,
foundational values, drawn from moral philosophy and built on the requisites
for human existence: survival, sustainable intergenerational existence,
society, education, and truth. We show that these values not only provide a
clearer direction for technical alignment work, but also serve as a framework
to highlight threats and opportunities from AI systems to both obtain and
sustain these values.
- Abstract(参考訳): AIアライメント問題を解決するには、AIシステムが整合できる明確な、防御可能な値が必要である。
現在、アライメントの目標は未定のままであり、哲学的に堅牢な構造から構築されていないようである。
我々は,人間の生存,持続的世代間存在,社会,教育,真理という,道徳哲学から引き出された5つの基本的価値観を提示することによって,この問題の議論を始める。
これらの価値は、技術的アライメント作業のより明確な方向性を提供するだけでなく、aiシステムによるこれらの価値の獲得と維持の脅威や機会を強調するフレームワークとしても機能することを示している。
関連論文リスト
- AI Alignment: A Comprehensive Survey [71.14382422032104]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - A Multi-Level Framework for the AI Alignment Problem [0.0]
個人,組織,国家,グローバルの4つのレベルにおいて,この問題を考察するための枠組みを提案する。
我々は、各レベルの重要な疑問と考察を概説し、AIコンテンツモデレーションのトピックへのこのフレームワークの適用を実証する。
論文 参考訳(メタデータ) (2023-01-10T01:09:07Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - The Challenge of Value Alignment: from Fairer Algorithms to AI Safety [2.28438857884398]
本稿では,AIシステムを人的価値と整合させる方法について論じる。
それは、技術と価値に関するより広い考え方の体系の中に収まる。
論文 参考訳(メタデータ) (2021-01-15T11:03:15Z) - Artificial Intelligence, Values and Alignment [2.28438857884398]
AIアライメント問題の規範的および技術的側面は相互に関連している。
アライメントの目標を明確にすることが重要です。
理論家にとっての中心的な課題は、AIの「真の」道徳原則を特定することではない。
論文 参考訳(メタデータ) (2020-01-13T10:32:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。