論文の概要: Truthful AI: Developing and governing AI that does not lie
- arxiv url: http://arxiv.org/abs/2110.06674v1
- Date: Wed, 13 Oct 2021 12:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 13:39:35.162944
- Title: Truthful AI: Developing and governing AI that does not lie
- Title(参考訳): 真実のAI:嘘をつかないAIを開発し、管理する
- Authors: Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital
Balwit, Peter Wills, Luca Righetti, William Saunders
- Abstract要約: 嘘をつくために口頭で嘘をつくのは有害です。
嘘は伝統的に人間関係だったが、AIシステムはますます普及しつつある。
このことは、AIの「リー」による害をどう抑えるべきかという疑問を提起する
- 参考スコア(独自算出の注目度): 0.26385121748044166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many contexts, lying -- the use of verbal falsehoods to deceive -- is
harmful. While lying has traditionally been a human affair, AI systems that
make sophisticated verbal statements are becoming increasingly prevalent. This
raises the question of how we should limit the harm caused by AI "lies" (i.e.
falsehoods that are actively selected for). Human truthfulness is governed by
social norms and by laws (against defamation, perjury, and fraud). Differences
between AI and humans present an opportunity to have more precise standards of
truthfulness for AI, and to have these standards rise over time. This could
provide significant benefits to public epistemics and the economy, and mitigate
risks of worst-case AI futures.
Establishing norms or laws of AI truthfulness will require significant work
to: (1) identify clear truthfulness standards; (2) create institutions that can
judge adherence to those standards; and (3) develop AI systems that are
robustly truthful.
Our initial proposals for these areas include: (1) a standard of avoiding
"negligent falsehoods" (a generalisation of lies that is easier to assess); (2)
institutions to evaluate AI systems before and after real-world deployment; and
(3) explicitly training AI systems to be truthful via curated datasets and
human interaction.
A concerning possibility is that evaluation mechanisms for eventual
truthfulness standards could be captured by political interests, leading to
harmful censorship and propaganda. Avoiding this might take careful attention.
And since the scale of AI speech acts might grow dramatically over the coming
decades, early truthfulness standards might be particularly important because
of the precedents they set.
- Abstract(参考訳): 多くの文脈で、嘘 ― 欺くために言葉の偽りを使う ― は有害である。
嘘は伝統的に人間関係だったが、洗練された口頭弁論を行うAIシステムがますます普及しつつある。
このことは、AIが生み出す害(すなわち積極的に選択される虚偽)をどのように制限すべきかという疑問を提起する。
人間の真理は社会規範と法(名誉喪失、偽証、詐欺など)によって支配される。
AIと人間の違いは、AIに対してより正確な真理性の標準を持ち、これらの標準が時間とともに上昇する機会を与える。
これにより、公衆の疫学や経済に多大な利益をもたらし、最悪のAIの未来に対するリスクを軽減することができる。
AIの真理性の規範や法則の確立には,(1)明確な真理性基準の特定,(2)それらの基準の遵守を判断できる制度の構築,(3)堅牢な真理性を持つAIシステムの開発など,重要な作業が必要である。
最初の提案は,(1)「否定的虚偽」の回避基準(評価し易い嘘の一般化),(2)実世界の展開前後のAIシステム評価機関,(3)キュレートされたデータセットと人間のインタラクションを通じてAIシステムに真正性を持たせるよう明示的にトレーニングすることである。
政治的利益によって、最終的な真実性基準の評価メカニズムが捉えられる可能性があり、有害な検閲やプロパガンダに繋がる可能性がある。
これを避けるには注意が必要だ。
そして、AIのスピーチ行為の規模は今後数十年で劇的に拡大する可能性があるため、初期の真理性基準は、彼らが設定した前例のために特に重要であるかもしれない。
関連論文リスト
- Taking AI Welfare Seriously [0.5617572524191751]
我々は、近い将来、一部のAIシステムが意識的または堅牢に作用する可能性があると論じている。
これは近い将来の問題であり、AI企業や他のアクターはそれを真剣に取り始める責任がある。
論文 参考訳(メタデータ) (2024-11-04T17:57:57Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - AI Consciousness and Public Perceptions: Four Futures [0.0]
我々は、未来の人間社会が高度なAIシステムを意識していると広く信じているかどうかを調査する。
私たちは、AIの苦悩、人間の非エンパワーメント、地政学的な不安定、そして人間の絶望の4つの大きなリスクを特定します。
この論文は、意識的なAIを意図的に創出することを目的とした研究を避けるための主要な推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-08-08T22:01:57Z) - Deception and Manipulation in Generative AI [0.0]
AI生成コンテンツは、騙しや操作に対してより厳格な基準に従うべきだと私は主張する。
AIの騙しや操作を防ぐための2つの対策を提案する。
論文 参考訳(メタデータ) (2024-01-20T21:54:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - From the Ground Truth Up: Doing AI Ethics from Practice to Principles [0.0]
最近のAI倫理は、抽象原則を実践に下方へ適用することに焦点を当てている。
この論文は反対方向に動く。
倫理的な洞察は、具体的な人間の問題に取り組んでいるAI設計者の生きた経験から生まれる。
論文 参考訳(メタデータ) (2022-01-05T15:33:33Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Could regulating the creators deliver trustworthy AI? [2.588973722689844]
AIは広く普及しており、私たちの知識なしに日々のテクノロジー、デバイス、サービスにデプロイされることが多い。
恐怖は、信頼できるAIの源を指し示すことができないことによって複雑化している。
信頼できるAIは、関連する法律に準拠するものだと考える人もいる。
倫理や基準に従う必要性を指摘する者もいる。
論文 参考訳(メタデータ) (2020-06-26T01:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。