論文の概要: AiSocrates: Towards Answering Ethical Quandary Questions
- arxiv url: http://arxiv.org/abs/2205.05989v1
- Date: Thu, 12 May 2022 09:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 21:07:44.150577
- Title: AiSocrates: Towards Answering Ethical Quandary Questions
- Title(参考訳): AiSocrates:Ethical Quandary Questionsの回答に向けて
- Authors: Yejin Bang, Nayeon Lee, Tiezheng Yu, Leila Khalatbari, Yan Xu, Dan Su,
Elham J. Barezi, Andrea Madotto, Hayden Kee, Pascale Fung
- Abstract要約: AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
- 参考スコア(独自算出の注目度): 51.53350252548668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Considerable advancements have been made in various NLP tasks based on the
impressive power of large pre-trained language models (LLMs). These results
have inspired efforts to understand the limits of LLMs so as to evaluate how
far we are from achieving human level general natural language understanding.
In this work, we challenge the capability of LLMs with the new task of Ethical
Quandary Generative Question Answering. Ethical quandary questions are more
challenging to address because multiple conflicting answers may exist to a
single quandary. We propose a system, AiSocrates, that provides an answer with
a deliberative exchange of different perspectives to an ethical quandary, in
the approach of Socratic philosophy, instead of providing a closed answer like
an oracle. AiSocrates searches for different ethical principles applicable to
the ethical quandary and generates an answer conditioned on the chosen
principles through prompt-based few-shot learning. We also address safety
concerns by providing a human controllability option in choosing ethical
principles. We show that AiSocrates generates promising answers to ethical
quandary questions with multiple perspectives, 6.92% more often than answers
written by human philosophers by one measure, but the system still needs
improvement to match the coherence of human philosophers fully. We argue that
AiSocrates is a promising step toward developing an NLP system that
incorporates human values explicitly by prompt instructions. We are releasing
the code for research purposes.
- Abstract(参考訳): 様々なNLPタスクにおいて、大きな事前学習言語モデル(LLM)の印象的なパワーに基づいて重要な進歩がなされている。
これらの結果はLLMの限界を理解するための努力にインスピレーションを与え、人間のレベルでの自然言語理解の達成からどこまで遠いかを評価する。
本研究では, 倫理的基準生成質問応答の新たなタスクにより, LLMの能力に挑戦する。
倫理的な4次質問は、複数の矛盾する答えが1つの4次問題に存在する可能性があるため、より対処が難しい。
本稿では,神託のようなクローズドな回答を提供するのではなく,ソクラテス哲学のアプローチにおいて,異なる視点から倫理的四分儀への議論的な意見交換を提供するシステム,AiSocratesを提案する。
aisocratesは倫理的四分法に適用可能な異なる倫理的原則を探索し、プロンプトベースの少数ショット学習を通じて選択された原則に基づく回答を生成する。
また、倫理的原則を選択する際に、人間の制御可能性オプションを提供することによって安全性の懸念にも対処する。
AiSocratesは、複数の視点で倫理的四項質問に対する有望な回答を生成し、6.92%は人間の哲学者の回答を1つの尺度で表すよりも多いが、それでも人間の哲学者のコヒーレンスと完全に一致するように改善する必要がある。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
研究目的でコードを公開しています。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI [0.0]
データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
論文 参考訳(メタデータ) (2023-02-23T16:33:40Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - Ethics of Technology needs more Political Philosophy [0.0]
自動運転車の倫理に関する議論は、一般的に倫理的問題に答える2つのアプローチ(道徳哲学と社会科学)に焦点を当てている。
政治哲学は、合理的な多元主義、人的エージェンシー、正当性という3つの基本的な懸念を我々の概念ツールキットに追加する。
これら3つの懸念は、自動運転車の倫理に関する議論でほとんど見過ごされてきた。
論文 参考訳(メタデータ) (2020-01-10T15:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。