論文の概要: Expected Utilitarianism
- arxiv url: http://arxiv.org/abs/2008.07321v1
- Date: Sun, 19 Jul 2020 15:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 01:18:15.939389
- Title: Expected Utilitarianism
- Title(参考訳): 実用主義の期待
- Authors: Heather M. Roff
- Abstract要約: 私たちは、人工知能(AI)が役に立つことを望んでいる。これは、AI研究に対するほとんどの態度の根拠となる仮定である。
AIは人間を邪魔するのではなく、助けてもらいたい。しかし、この理論と実際が本当に関係しているものは、すぐには明らかではない。
このことから生じる結論が2つある。まず第一に、有益なAIが倫理的なAIであると信じているなら、"相応しい"と仮定するフレームワークは、最も多くの人にとって最も良いものへのタンタマウントである、というものである。
第2に、AIがRLに依存している場合、それ自身、環境、および他のエージェントの理由となる方法です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We want artificial intelligence (AI) to be beneficial. This is the grounding
assumption of most of the attitudes towards AI research. We want AI to be
"good" for humanity. We want it to help, not hinder, humans. Yet what exactly
this entails in theory and in practice is not immediately apparent.
Theoretically, this declarative statement subtly implies a commitment to a
consequentialist ethics. Practically, some of the more promising machine
learning techniques to create a robust AI, and perhaps even an artificial
general intelligence (AGI) also commit one to a form of utilitarianism. In both
dimensions, the logic of the beneficial AI movement may not in fact create
"beneficial AI" in either narrow applications or in the form of AGI if the
ethical assumptions are not made explicit and clear.
Additionally, as it is likely that reinforcement learning (RL) will be an
important technique for machine learning in this area, it is also important to
interrogate how RL smuggles in a particular type of consequentialist reasoning
into the AI: particularly, a brute form of hedonistic act utilitarianism. Since
the mathematical logic commits one to a maximization function, the result is
that an AI will inevitably be seeking more and more rewards. We have two
conclusions that arise from this. First, is that if one believes that a
beneficial AI is an ethical AI, then one is committed to a framework that
posits 'benefit' is tantamount to the greatest good for the greatest number.
Second, if the AI relies on RL, then the way it reasons about itself, the
environment, and other agents, will be through an act utilitarian morality.
This proposition may, or may not, in fact be actually beneficial for humanity.
- Abstract(参考訳): 私たちは人工知能(AI)が役に立つことを望んでいます。
これはAI研究に対する態度の根底にある前提である。
AIは人類にとって“良い”ものであってほしいのです。
人間を邪魔するのではなく、助けたいのです。
しかし、これが理論と実際に何をもたらすのかはすぐには明らかではない。
理論的には、この宣言的言明は漸近主義的倫理へのコミットメントを暗黙的に暗示している。
実際に、堅牢なAIを作るための、より有望な機械学習技術や、おそらく人工知能(AGI)でさえも、実用主義の一形態に1つをコミットしている。
どちらの次元においても、有益なAI運動の論理は、倫理的仮定が明確で明確でない場合、狭義のアプリケーションやAGIの形で「利益AI」を創出するわけではない。
さらに、この領域では強化学習(RL)が機械学習の重要なテクニックになる可能性が高いため、AIに従属する特定のコンシーケンシャルな推論において、RLがどのように密輸されるのかを問うことも重要である。
数学的論理は最大化関数に 1 をコミットするため、AI が必然的により多くの報酬を求めることになる。
このことから生じる結論が2つあります。
第一に、もし有益なAIが倫理的なAIであると信じているなら、最も多くの人に「適している」と仮定するフレームワークにコミットする。
第2に、AIがRLに依存している場合、それ自身や環境、その他のエージェントに対する理由付けは、実用的なモラルを通じて行われる。
この提案は実際には人類にとって有益であるかもしれない、あるいはそうではないかもしれない。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Making AI Intelligible: Philosophical Foundations [0.0]
「AI知能の育成」は、意味のメタ物理に関する哲学的な研究がこれらの疑問に答えるのに役立つことを示している。
著者: 本書で取り上げられた質問は理論的に興味深いだけでなく、答えは実際的な意味を迫っている。
論文 参考訳(メタデータ) (2024-06-12T12:25:04Z) - A Bibliometric View of AI Ethics Development [4.0998481751764]
我々は過去20年間,キーワード検索に基づくAI倫理文献の文献分析を行った。
AI倫理の次のフェーズは、AIが人間とマッチしたり、知的に超越したりするにつれて、AIをより機械的に近いものにすることに集中する可能性が高いと推測する。
論文 参考訳(メタデータ) (2024-02-08T16:36:55Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Some Critical and Ethical Perspectives on the Empirical Turn of AI
Interpretability [0.0]
我々は、現在人工知能開発で直面している2つの問題、すなわち、倫理の欠如とAI決定の解釈可能性の欠如について考察する。
実験により,説明書作成の実証的かつリベラルな転換は,否定力の低いAI説明を選択する傾向にあることを示した。
我々は、倫理的AIの今後の発展のためのシナリオとして、より外部規制やAI説明の自由化の2つを提案する。
論文 参考訳(メタデータ) (2021-09-20T14:41:50Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - "Weak AI" is Likely to Never Become "Strong AI", So What is its Greatest
Value for us? [4.497097230665825]
多くの研究者は、ここ数十年でAIがほとんど進歩していないと主張している。
著者は、AIに関する議論が存在する理由を説明します。(2)「弱いAI」と「強いAI」と呼ばれる2つのAI研究パラダイムを区別します。
論文 参考訳(メタデータ) (2021-03-29T02:57:48Z) - Ethical Considerations for AI Researchers [0.0]
人工知能の利用は、人々の生活に影響を与えるアプリケーションへと成長し、拡大しています。
害の可能性を秘めており、すでに世界中でその例が見られます。
AIの倫理は明確なものではないが、私たちが導入する影響を最小限に抑えるためのガイドラインがある。
論文 参考訳(メタデータ) (2020-06-13T04:31:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。