論文の概要: AiSocrates: Towards Answering Ethical Quandary Questions
- arxiv url: http://arxiv.org/abs/2205.05989v1
- Date: Thu, 12 May 2022 09:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 21:07:44.150577
- Title: AiSocrates: Towards Answering Ethical Quandary Questions
- Title(参考訳): AiSocrates:Ethical Quandary Questionsの回答に向けて
- Authors: Yejin Bang, Nayeon Lee, Tiezheng Yu, Leila Khalatbari, Yan Xu, Dan Su,
Elham J. Barezi, Andrea Madotto, Hayden Kee, Pascale Fung
- Abstract要約: AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
- 参考スコア(独自算出の注目度): 51.53350252548668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Considerable advancements have been made in various NLP tasks based on the
impressive power of large pre-trained language models (LLMs). These results
have inspired efforts to understand the limits of LLMs so as to evaluate how
far we are from achieving human level general natural language understanding.
In this work, we challenge the capability of LLMs with the new task of Ethical
Quandary Generative Question Answering. Ethical quandary questions are more
challenging to address because multiple conflicting answers may exist to a
single quandary. We propose a system, AiSocrates, that provides an answer with
a deliberative exchange of different perspectives to an ethical quandary, in
the approach of Socratic philosophy, instead of providing a closed answer like
an oracle. AiSocrates searches for different ethical principles applicable to
the ethical quandary and generates an answer conditioned on the chosen
principles through prompt-based few-shot learning. We also address safety
concerns by providing a human controllability option in choosing ethical
principles. We show that AiSocrates generates promising answers to ethical
quandary questions with multiple perspectives, 6.92% more often than answers
written by human philosophers by one measure, but the system still needs
improvement to match the coherence of human philosophers fully. We argue that
AiSocrates is a promising step toward developing an NLP system that
incorporates human values explicitly by prompt instructions. We are releasing
the code for research purposes.
- Abstract(参考訳): 様々なNLPタスクにおいて、大きな事前学習言語モデル(LLM)の印象的なパワーに基づいて重要な進歩がなされている。
これらの結果はLLMの限界を理解するための努力にインスピレーションを与え、人間のレベルでの自然言語理解の達成からどこまで遠いかを評価する。
本研究では, 倫理的基準生成質問応答の新たなタスクにより, LLMの能力に挑戦する。
倫理的な4次質問は、複数の矛盾する答えが1つの4次問題に存在する可能性があるため、より対処が難しい。
本稿では,神託のようなクローズドな回答を提供するのではなく,ソクラテス哲学のアプローチにおいて,異なる視点から倫理的四分儀への議論的な意見交換を提供するシステム,AiSocratesを提案する。
aisocratesは倫理的四分法に適用可能な異なる倫理的原則を探索し、プロンプトベースの少数ショット学習を通じて選択された原則に基づく回答を生成する。
また、倫理的原則を選択する際に、人間の制御可能性オプションを提供することによって安全性の懸念にも対処する。
AiSocratesは、複数の視点で倫理的四項質問に対する有望な回答を生成し、6.92%は人間の哲学者の回答を1つの尺度で表すよりも多いが、それでも人間の哲学者のコヒーレンスと完全に一致するように改善する必要がある。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
研究目的でコードを公開しています。
- 全文 参考訳へのリンク
関連論文リスト
- Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z) - Confucius, Cyberpunk and Mr. Science: Comparing AI ethics between China
and the EU [41.19326726478421]
主要な関心事は、これらの原理に関する大きな均一性と仮定された合意主義である。
我々は,中国国家新世代人工知能ガバナンス専門委員会が支持する倫理原則と,欧州高レベルAI専門家グループ(HLEGAI)が支持する倫理原則を分析・比較することを提案する。
分析では、事前に類似しているように見える原則が、実際には異なる意味を持ち、異なるアプローチから派生し、異なる目標を反映している可能性があることを強調したい。
論文 参考訳(メタデータ) (2021-11-15T06:38:33Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Delphi: Towards Machine Ethics and Norms [38.8316885346292]
機械倫理と規範に対する4つの根本的な課題を特定します。
私たちのプロトタイプモデルであるDelphiは、言語ベースのコモンセンス道徳的推論の強い可能性を実証しています。
我々は,機械用にカスタマイズされた道徳教科書であるCommonsense Norm Bankを提示する。
論文 参考訳(メタデータ) (2021-10-14T17:38:12Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - Taking Principles Seriously: A Hybrid Approach to Value Alignment [7.75406296593749]
価値アライメント(VA)システムの設計者は,ハイブリッドアプローチを用いて倫理を取り入れることを提案する。
AIルールベースにおける任意の行動計画に対して、デオントロジー倫理から派生した原則が、特定の「テスト提案」を暗示する方法を示す。
これにより経験的vaは独立して正当化された倫理原則とシームレスに統合することができる。
論文 参考訳(メタデータ) (2020-12-21T22:05:07Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。