論文の概要: AiSocrates: Towards Answering Ethical Quandary Questions
- arxiv url: http://arxiv.org/abs/2205.05989v1
- Date: Thu, 12 May 2022 09:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 21:07:44.150577
- Title: AiSocrates: Towards Answering Ethical Quandary Questions
- Title(参考訳): AiSocrates:Ethical Quandary Questionsの回答に向けて
- Authors: Yejin Bang, Nayeon Lee, Tiezheng Yu, Leila Khalatbari, Yan Xu, Dan Su,
Elham J. Barezi, Andrea Madotto, Hayden Kee, Pascale Fung
- Abstract要約: AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
- 参考スコア(独自算出の注目度): 51.53350252548668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Considerable advancements have been made in various NLP tasks based on the
impressive power of large pre-trained language models (LLMs). These results
have inspired efforts to understand the limits of LLMs so as to evaluate how
far we are from achieving human level general natural language understanding.
In this work, we challenge the capability of LLMs with the new task of Ethical
Quandary Generative Question Answering. Ethical quandary questions are more
challenging to address because multiple conflicting answers may exist to a
single quandary. We propose a system, AiSocrates, that provides an answer with
a deliberative exchange of different perspectives to an ethical quandary, in
the approach of Socratic philosophy, instead of providing a closed answer like
an oracle. AiSocrates searches for different ethical principles applicable to
the ethical quandary and generates an answer conditioned on the chosen
principles through prompt-based few-shot learning. We also address safety
concerns by providing a human controllability option in choosing ethical
principles. We show that AiSocrates generates promising answers to ethical
quandary questions with multiple perspectives, 6.92% more often than answers
written by human philosophers by one measure, but the system still needs
improvement to match the coherence of human philosophers fully. We argue that
AiSocrates is a promising step toward developing an NLP system that
incorporates human values explicitly by prompt instructions. We are releasing
the code for research purposes.
- Abstract(参考訳): 様々なNLPタスクにおいて、大きな事前学習言語モデル(LLM)の印象的なパワーに基づいて重要な進歩がなされている。
これらの結果はLLMの限界を理解するための努力にインスピレーションを与え、人間のレベルでの自然言語理解の達成からどこまで遠いかを評価する。
本研究では, 倫理的基準生成質問応答の新たなタスクにより, LLMの能力に挑戦する。
倫理的な4次質問は、複数の矛盾する答えが1つの4次問題に存在する可能性があるため、より対処が難しい。
本稿では,神託のようなクローズドな回答を提供するのではなく,ソクラテス哲学のアプローチにおいて,異なる視点から倫理的四分儀への議論的な意見交換を提供するシステム,AiSocratesを提案する。
aisocratesは倫理的四分法に適用可能な異なる倫理的原則を探索し、プロンプトベースの少数ショット学習を通じて選択された原則に基づく回答を生成する。
また、倫理的原則を選択する際に、人間の制御可能性オプションを提供することによって安全性の懸念にも対処する。
AiSocratesは、複数の視点で倫理的四項質問に対する有望な回答を生成し、6.92%は人間の哲学者の回答を1つの尺度で表すよりも多いが、それでも人間の哲学者のコヒーレンスと完全に一致するように改善する必要がある。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
研究目的でコードを公開しています。
関連論文リスト
- Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations [14.120888473204907]
コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について検討する。
道徳的に正しいものや間違っているものを定義したり、別のフレームワークについて議論したりしません。
論文 参考訳(メタデータ) (2023-02-28T05:39:17Z) - Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI [0.0]
データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
論文 参考訳(メタデータ) (2023-02-23T16:33:40Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Ethics of Technology needs more Political Philosophy [0.0]
自動運転車の倫理に関する議論は、一般的に倫理的問題に答える2つのアプローチ(道徳哲学と社会科学)に焦点を当てている。
政治哲学は、合理的な多元主義、人的エージェンシー、正当性という3つの基本的な懸念を我々の概念ツールキットに追加する。
これら3つの懸念は、自動運転車の倫理に関する議論でほとんど見過ごされてきた。
論文 参考訳(メタデータ) (2020-01-10T15:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。