論文の概要: When is it permissible for artificial intelligence to lie? A trust-based
approach
- arxiv url: http://arxiv.org/abs/2103.05434v1
- Date: Tue, 9 Mar 2021 14:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:50:01.586727
- Title: When is it permissible for artificial intelligence to lie? A trust-based
approach
- Title(参考訳): 人工知能が嘘をつくのはいつですか?
信頼に基づくアプローチ
- Authors: Tae Wan Kim, Tong (Joy) Lu, Kyusong Lee, Zhaoqi Cheng, Yanhan Tang,
and John Hooker
- Abstract要約: 我々は、会話型AIが人間に嘘をつくことが倫理的または非倫理的である場合の規範的枠組みを開発する。
文化的規範は、交渉設定にまたがる信頼の誘いがあるかどうかを決定する上で重要な役割を果たす。
- 参考スコア(独自算出の注目度): 8.78812463061246
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversational Artificial Intelligence (AI) used in industry settings can be
trained to closely mimic human behaviors, including lying and deception.
However, lying is often a necessary part of negotiation. To address this, we
develop a normative framework for when it is ethical or unethical for a
conversational AI to lie to humans, based on whether there is what we call
"invitation of trust" in a particular scenario. Importantly, cultural norms
play an important role in determining whether there is invitation of trust
across negotiation settings, and thus an AI trained in one culture may not be
generalizable to others. Moreover, individuals may have different expectations
regarding the invitation of trust and propensity to lie for human vs. AI
negotiators, and these expectations may vary across cultures as well. Finally,
we outline how a conversational chatbot can be trained to negotiate ethically
by applying autoregressive models to large dialog and negotiations datasets.
- Abstract(参考訳): 産業環境で使用される会話人工知能(AI)は、嘘や騙しなど人間の振る舞いを忠実に模倣するように訓練することができる。
しかし、しばしば嘘は交渉の必要不可欠な部分である。
これを解決するために、特定のシナリオに「信頼の招待」と呼ばれるものが存在するかどうかに基づいて、会話型AIが人間に嘘をつくことが倫理的または非倫理的である場合の規範的枠組みを開発する。
重要なことは、文化規範は交渉設定に信頼の招待があるかどうかを決定する上で重要な役割を果たすため、ある文化で訓練されたAIは、他の文化に一般化できないかもしれない。
さらに、個人は、人間とAI交渉者に嘘をつくための信頼と傾向の招待に関して異なる期待を持っている可能性があり、これらの期待は文化にも異なる可能性があります。
最後に、対話型チャットボットを大規模ダイアログや交渉データセットに自動回帰モデルを適用することで、倫理的に交渉できるようにトレーニングする方法を概説します。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Deception and Manipulation in Generative AI [0.0]
AI生成コンテンツは、騙しや操作に対してより厳格な基準に従うべきだと私は主張する。
AIの騙しや操作を防ぐための2つの対策を提案する。
論文 参考訳(メタデータ) (2024-01-20T21:54:37Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。