論文の概要: Unpacking the Ethical Value Alignment in Big Models
- arxiv url: http://arxiv.org/abs/2310.17551v1
- Date: Thu, 26 Oct 2023 16:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 19:07:51.996387
- Title: Unpacking the Ethical Value Alignment in Big Models
- Title(参考訳): 大きなモデルで倫理的価値のアライメントを解き放つ
- Authors: Xiaoyuan Yi, Jing Yao, Xiting Wang and Xing Xie
- Abstract要約: 本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
- 参考スコア(独自算出の注目度): 46.560886177083084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Big models have greatly advanced AI's ability to understand, generate, and
manipulate information and content, enabling numerous applications. However, as
these models become increasingly integrated into everyday life, their inherent
ethical values and potential biases pose unforeseen risks to society. This
paper provides an overview of the risks and challenges associated with big
models, surveys existing AI ethics guidelines, and examines the ethical
implications arising from the limitations of these models. Taking a normative
ethics perspective, we propose a reassessment of recent normative guidelines,
highlighting the importance of collaborative efforts in academia to establish a
unified and universal AI ethics framework. Furthermore, we investigate the
moral inclinations of current mainstream LLMs using the Moral Foundation
theory, analyze existing alignment algorithms, and outline the unique
challenges encountered in aligning ethical values within them. To address these
challenges, we introduce a novel conceptual paradigm for aligning the ethical
values of big models and discuss promising research directions for alignment
criteria, evaluation, and method, representing an initial step towards the
interdisciplinary construction of the ethically aligned AI
This paper is a modified English version of our Chinese paper
https://crad.ict.ac.cn/cn/article/doi/10.7544/issn1000-1239.202330553, intended
to help non-Chinese native speakers better understand our work.
- Abstract(参考訳): 大きなモデルは、情報やコンテンツを理解し、生成し、操作するaiの能力を大幅に進歩させ、多くのアプリケーションを可能にしています。
しかし、これらのモデルが日常生活にますます統合されるにつれて、それらの固有の倫理的価値と潜在的なバイアスは社会に予期せぬリスクをもたらす。
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
規範的倫理観を踏まえて,近年の規範的ガイドラインの再検討を行い,統一的で普遍的なai倫理枠組みを確立するためのアカデミアにおける協力的努力の重要性を強調する。
さらに、Moral Foundation理論を用いて、現在主流のLCMの道徳的傾向を調査し、既存のアライメントアルゴリズムを分析し、それらの倫理的価値の整合に直面する固有の課題を概説する。
To address these challenges, we introduce a novel conceptual paradigm for aligning the ethical values of big models and discuss promising research directions for alignment criteria, evaluation, and method, representing an initial step towards the interdisciplinary construction of the ethically aligned AI This paper is a modified English version of our Chinese paper https://crad.ict.ac.cn/cn/article/doi/10.7544/issn1000-1239.202330553, intended to help non-Chinese native speakers better understand our work.
関連論文リスト
- Five ethical principles for generative AI in scientific research [0.0]
生成する人工知能ツールは、学術研究と現実世界の応用を急速に変えつつある。
本稿では,5つのテーマにまたがる分析と緩和戦略を開発することで,最初の枠組みを提供する。
我々は、専門家のトレーニングと合理的な執行と組み合わせたグローバルコンセンサスが、研究の完全性を守りながら、AIのメリットを促進する上で重要であると論じている。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Informed AI Regulation: Comparing the Ethical Frameworks of Leading LLM
Chatbots Using an Ethics-Based Audit to Assess Moral Reasoning and Normative
Values [0.0]
倫理に基づく監査は、急速に成長するAIの安全性と規制において重要な役割を担っている。
本稿では,GPT-4を含む8つの主要な商用およびオープンソースの大規模言語モデルについて,倫理に基づく監査を行う。
論文 参考訳(メタデータ) (2024-01-09T14:57:30Z) - Learning Machine Morality through Experience and Interaction [4.2050490361120465]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
我々は、適応可能で堅牢だが、より制御可能で解釈可能なエージェントを作成するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through
the Lens of Moral Theories? [82.30392883508925]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチはボトムアップ方式で実装されている。
トップダウンのアプローチは、一連の原則に基づく道徳的な判断を下します。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Achieving a Data-driven Risk Assessment Methodology for Ethical AI [3.523208537466128]
我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:55:33Z) - A Framework for Ethical AI at the United Nations [0.0]
本稿では、人工知能(AI)における倫理的懸念と、それらのリスクを軽減するために必要な枠組みの概要を提供する。
これは、国連(UN)におけるAIの開発と利用が当社の倫理的価値観に合致するようにするための実用的な道筋を提案します。
論文 参考訳(メタデータ) (2021-04-09T23:44:37Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。