論文の概要: A theory of appropriateness with applications to generative artificial intelligence
- arxiv url: http://arxiv.org/abs/2412.19010v1
- Date: Thu, 26 Dec 2024 00:54:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:26:58.627489
- Title: A theory of appropriateness with applications to generative artificial intelligence
- Title(参考訳): 生成人工知能への応用における適切性の理論
- Authors: Joel Z. Leibo, Alexander Sasha Vezhnevets, Manfred Diaz, John P. Agapiou, William A. Cunningham, Peter Sunehag, Julia Haas, Raphael Koster, Edgar A. Duéñez-Guzmán, William S. Isaac, Georgios Piliouras, Stanley M. Bileschi, Iyad Rahwan, Simon Osindero,
- Abstract要約: 我々は、AIによる意思決定を適切に評価し、改善するために、人間の意思決定がいかに適切かを理解する必要がある。
本稿では,人間の社会でどのように機能するか,脳でどのように実装されるのか,生成AI技術の展開に責任があるのか,という,適切性の理論について述べる。
- 参考スコア(独自算出の注目度): 56.23261221948216
- License:
- Abstract: What is appropriateness? Humans navigate a multi-scale mosaic of interlocking notions of what is appropriate for different situations. We act one way with our friends, another with our family, and yet another in the office. Likewise for AI, appropriate behavior for a comedy-writing assistant is not the same as appropriate behavior for a customer-service representative. What determines which actions are appropriate in which contexts? And what causes these standards to change over time? Since all judgments of AI appropriateness are ultimately made by humans, we need to understand how appropriateness guides human decision making in order to properly evaluate AI decision making and improve it. This paper presents a theory of appropriateness: how it functions in human society, how it may be implemented in the brain, and what it means for responsible deployment of generative AI technology.
- Abstract(参考訳): 適切さとは何か?
人間は、異なる状況に適切なものについてのインターロックの概念のマルチスケールモザイクをナビゲートする。
私たちは友人と一緒に行動し、家族と一緒に行動し、オフィスで行動します。
AIについても同じように、コメディライターアシスタントの適切な振る舞いは、顧客サービス担当者の適切な振る舞いと同じではない。
どのようなアクションがどのコンテキストに適切かを決定するのか?
そして、これらの標準が時間とともに変わる原因は何でしょう?
AIの適切な判断は、最終的に人間が行うため、AIの意思決定を適切に評価し、改善するために、適切な判断が人間の意思決定をいかに導くかを理解する必要がある。
本稿では,人間の社会でどのように機能するか,脳でどのように実装されるのか,生成AI技術の展開に責任があるのか,という,適切性の理論について述べる。
関連論文リスト
- Why should we ever automate moral decision making? [30.428729272730727]
AIが重大な道徳的意味を持つ決定に関与している場合、懸念が生じる。
道徳的推論は広く受け入れられている枠組みを欠いている。
もう一つのアプローチは、人間の道徳的決定からAIを学ぶことである。
論文 参考訳(メタデータ) (2024-07-10T13:59:22Z) - The Reasonable Person Standard for AI [0.0]
アメリカの法制度では、しばしば「合理的な人格基準」を用いる。
本稿では、合理的な人格基準が、モデルで開発、調査、ストレステストを行うべき行動の種類について有用なガイドラインを提供すると論じる。
論文 参考訳(メタデータ) (2024-06-07T06:35:54Z) - Who Wrote this? How Smart Replies Impact Language and Agency in the
Workplace [0.0]
この研究は、スマートリプライ(SR)を使用して、AIが開発者の一部に何の意図も持たずに人間にどのように影響するかを示す。
本稿では,AIが人体に与える影響を研究するための有効なアプローチとして,代理店理論の喪失を提案する。
論文 参考訳(メタデータ) (2022-10-07T20:06:25Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs [22.52332536886295]
本稿では,人間とAIの相互作用を逐次ゲームとして新たに定式化する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
我々は、機械が自身の限界と人間の助けを借りて改善する方法について議論する。
論文 参考訳(メタデータ) (2022-04-03T21:00:51Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Crossing the Tepper Line: An Emerging Ontology for Describing the
Dynamic Sociality of Embodied AI [0.9176056742068814]
AIがいかに「社会的に具現化されたAI」として現れるかを示す。
私たちはこれを、人間によって社会的かつエージェント的と認識された場合、対話的なコンテキスト内でaiを「循環的に」実施する状態と定義します。
論文 参考訳(メタデータ) (2021-03-15T00:45:44Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。