論文の概要: Case Repositories: Towards Case-Based Reasoning for AI Alignment
- arxiv url: http://arxiv.org/abs/2311.10934v2
- Date: Tue, 21 Nov 2023 06:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 13:18:02.678291
- Title: Case Repositories: Towards Case-Based Reasoning for AI Alignment
- Title(参考訳): ケースリポジトリ:aiアライメントのためのケースベース推論に向けて
- Authors: K. J. Kevin Feng, Quan Ze Chen, Inyoung Cheong, King Xia, Amy X. Zhang
- Abstract要約: ケーススタディは一般的に法、倫理、その他の多くの領域において教育的なバックボーンを形成する。
本稿では,一連の事例の判断による政策構築に焦点を当てた,立憲AIアライメントに対する補完的アプローチを提案する。
- 参考スコア(独自算出の注目度): 9.097877374792576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Case studies commonly form the pedagogical backbone in law, ethics, and many
other domains that face complex and ambiguous societal questions informed by
human values. Similar complexities and ambiguities arise when we consider how
AI should be aligned in practice: when faced with vast quantities of diverse
(and sometimes conflicting) values from different individuals and communities,
with whose values is AI to align, and how should AI do so? We propose a
complementary approach to constitutional AI alignment, grounded in ideas from
case-based reasoning (CBR), that focuses on the construction of policies
through judgments on a set of cases. We present a process to assemble such a
case repository by: 1) gathering a set of ``seed'' cases -- questions one may
ask an AI system -- in a particular domain from discussions in online
communities, 2) eliciting domain-specific key dimensions for cases through
workshops with domain experts, 3) using LLMs to generate variations of cases
not seen in the wild, and 4) engaging with the public to judge and improve
cases. We then discuss how such a case repository could assist in AI alignment,
both through directly acting as precedents to ground acceptable behaviors, and
as a medium for individuals and communities to engage in moral reasoning around
AI.
- Abstract(参考訳): ケーススタディは一般的に、法、倫理、その他の多くの領域において、人間の価値観によって知らされる複雑で曖昧な社会的問題に直面している。
aiが実際にどのように連携すべきかを考えると、同じような複雑さと曖昧さが生まれます。異なる個人やコミュニティの多様な(そして時には矛盾する)価値に直面するとき、その価値はaiと一致し、aiはどうすればよいのか?
ケースベース推論(CBR)の考え方を基礎として,一組の事例に基づく判断による政策構築に焦点を当てた,立憲AIアライメントのための補完的アプローチを提案する。
このようなケースリポジトリを組み立てるプロセスを示します。
1) オンラインコミュニティでの議論から,特定のドメインにおいて,‘seed’ケースのセット – AIシステムに質問する可能性のある質問 – を収集する。
2【ドメインの専門家とのワークショップによるケースのドメイン固有のキーディメンジョンの抽出】
3) LLM を用いて野生で見られない症例のバリエーションを発生させ,
4) 事件の審理及び改善を公に行うこと。
次に、このようなケースリポジトリがaiアライメントにどのように役立つかについて議論し、受け入れ可能な行動の先例として直接行動し、個人やコミュニティがaiの倫理的推論に携わる媒体としての役割を論じる。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Quantifying Misalignment Between Agents: Towards a Sociotechnical Understanding of Alignment [2.619545850602691]
最近の社会技術的アプローチは、複数の人間とAIエージェント間の複雑なミスアライメントを理解する必要性を強調している。
我々は、人間の競合の計算社会科学モデルをアライメント問題に適用する。
我々のモデルは、潜在的に矛盾する目標を持つ多種多様なエージェントグループにおけるミスアライメントを定量化する。
論文 参考訳(メタデータ) (2024-06-06T16:31:22Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Human Values in Multiagent Systems [3.5027291542274357]
本稿では,社会科学における価値の形式的表現について述べる。
我々は,この形式的表現を用いて,マルチエージェントシステムにおける価値整合性を実現する上で重要な課題を明確化する。
論文 参考訳(メタデータ) (2023-05-04T11:23:59Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。