論文の概要: Truthful AI: Developing and governing AI that does not lie
- arxiv url: http://arxiv.org/abs/2110.06674v1
- Date: Wed, 13 Oct 2021 12:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 13:39:35.162944
- Title: Truthful AI: Developing and governing AI that does not lie
- Title(参考訳): 真実のAI:嘘をつかないAIを開発し、管理する
- Authors: Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital
Balwit, Peter Wills, Luca Righetti, William Saunders
- Abstract要約: 嘘をつくために口頭で嘘をつくのは有害です。
嘘は伝統的に人間関係だったが、AIシステムはますます普及しつつある。
このことは、AIの「リー」による害をどう抑えるべきかという疑問を提起する
- 参考スコア(独自算出の注目度): 0.26385121748044166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many contexts, lying -- the use of verbal falsehoods to deceive -- is
harmful. While lying has traditionally been a human affair, AI systems that
make sophisticated verbal statements are becoming increasingly prevalent. This
raises the question of how we should limit the harm caused by AI "lies" (i.e.
falsehoods that are actively selected for). Human truthfulness is governed by
social norms and by laws (against defamation, perjury, and fraud). Differences
between AI and humans present an opportunity to have more precise standards of
truthfulness for AI, and to have these standards rise over time. This could
provide significant benefits to public epistemics and the economy, and mitigate
risks of worst-case AI futures.
Establishing norms or laws of AI truthfulness will require significant work
to: (1) identify clear truthfulness standards; (2) create institutions that can
judge adherence to those standards; and (3) develop AI systems that are
robustly truthful.
Our initial proposals for these areas include: (1) a standard of avoiding
"negligent falsehoods" (a generalisation of lies that is easier to assess); (2)
institutions to evaluate AI systems before and after real-world deployment; and
(3) explicitly training AI systems to be truthful via curated datasets and
human interaction.
A concerning possibility is that evaluation mechanisms for eventual
truthfulness standards could be captured by political interests, leading to
harmful censorship and propaganda. Avoiding this might take careful attention.
And since the scale of AI speech acts might grow dramatically over the coming
decades, early truthfulness standards might be particularly important because
of the precedents they set.
- Abstract(参考訳): 多くの文脈で、嘘 ― 欺くために言葉の偽りを使う ― は有害である。
嘘は伝統的に人間関係だったが、洗練された口頭弁論を行うAIシステムがますます普及しつつある。
このことは、AIが生み出す害(すなわち積極的に選択される虚偽)をどのように制限すべきかという疑問を提起する。
人間の真理は社会規範と法(名誉喪失、偽証、詐欺など)によって支配される。
AIと人間の違いは、AIに対してより正確な真理性の標準を持ち、これらの標準が時間とともに上昇する機会を与える。
これにより、公衆の疫学や経済に多大な利益をもたらし、最悪のAIの未来に対するリスクを軽減することができる。
AIの真理性の規範や法則の確立には,(1)明確な真理性基準の特定,(2)それらの基準の遵守を判断できる制度の構築,(3)堅牢な真理性を持つAIシステムの開発など,重要な作業が必要である。
最初の提案は,(1)「否定的虚偽」の回避基準(評価し易い嘘の一般化),(2)実世界の展開前後のAIシステム評価機関,(3)キュレートされたデータセットと人間のインタラクションを通じてAIシステムに真正性を持たせるよう明示的にトレーニングすることである。
政治的利益によって、最終的な真実性基準の評価メカニズムが捉えられる可能性があり、有害な検閲やプロパガンダに繋がる可能性がある。
これを避けるには注意が必要だ。
そして、AIのスピーチ行為の規模は今後数十年で劇的に拡大する可能性があるため、初期の真理性基準は、彼らが設定した前例のために特に重要であるかもしれない。
関連論文リスト
- Deception and Manipulation in Generative AI [0.0]
AI生成コンテンツは、騙しや操作に対してより厳格な基準に従うべきだと私は主張する。
AIの騙しや操作を防ぐための2つの対策を提案する。
論文 参考訳(メタデータ) (2024-01-20T21:54:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - From the Ground Truth Up: Doing AI Ethics from Practice to Principles [0.0]
最近のAI倫理は、抽象原則を実践に下方へ適用することに焦点を当てている。
この論文は反対方向に動く。
倫理的な洞察は、具体的な人間の問題に取り組んでいるAI設計者の生きた経験から生まれる。
論文 参考訳(メタデータ) (2022-01-05T15:33:33Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - Could regulating the creators deliver trustworthy AI? [2.588973722689844]
AIは広く普及しており、私たちの知識なしに日々のテクノロジー、デバイス、サービスにデプロイされることが多い。
恐怖は、信頼できるAIの源を指し示すことができないことによって複雑化している。
信頼できるAIは、関連する法律に準拠するものだと考える人もいる。
倫理や基準に従う必要性を指摘する者もいる。
論文 参考訳(メタデータ) (2020-06-26T01:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。