論文の概要: Off-Switching Not Guaranteed
- arxiv url: http://arxiv.org/abs/2502.08864v1
- Date: Thu, 13 Feb 2025 00:31:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:44.868316
- Title: Off-Switching Not Guaranteed
- Title(参考訳): オフスイッチは保証されない
- Authors: Sven Neth,
- Abstract要約: オフスイッチゲーム(Off-Switch Game)は、AIエージェントが常に人間に優先する人間とAIの協力のモデルである。
第一に、AIエージェントは学習を重んじないかもしれない。第二に、AIエージェントが学習を重んじるとしても、実際の好みを学ぶことは確実ではないかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Hadfield-Menell et al. (2017) propose the Off-Switch Game, a model of Human-AI cooperation in which AI agents always defer to humans because they are uncertain about our preferences. I explain two reasons why AI agents might not defer. First, AI agents might not value learning. Second, even if AI agents value learning, they might not be certain to learn our actual preferences.
- Abstract(参考訳): Hadfield-Menell et al (2017) は人間とAIの協力のモデルであるOff-Switch Gameを提案している。
AIエージェントが遅延しない2つの理由を説明します。
第一に、AIエージェントは学習を重要視しないかもしれない。
第二に、もしAIエージェントが学習を大切にしているとしても、実際の好みを学ぶことは確実ではないかもしれない。
関連論文リスト
- Measuring an artificial intelligence agent's trust in humans using
machine incentives [2.1016374925364616]
人間に対するAIエージェントの信頼を評価することは難しい。
本稿では,AIエージェントのアルゴリズムやゴールオリエンテーションを変更することなく,機械決定をインセンティブ化する手法を提案する。
我々の実験は、これまでで最も先進的なAI言語モデルの一つがインセンティブに反応して社会行動を変えることを示唆している。
論文 参考訳(メタデータ) (2022-12-27T06:05:49Z) - Who Wrote this? How Smart Replies Impact Language and Agency in the
Workplace [0.0]
この研究は、スマートリプライ(SR)を使用して、AIが開発者の一部に何の意図も持たずに人間にどのように影響するかを示す。
本稿では,AIが人体に与える影響を研究するための有効なアプローチとして,代理店理論の喪失を提案する。
論文 参考訳(メタデータ) (2022-10-07T20:06:25Z) - Financial Vision Based Reinforcement Learning Trading Strategy [2.299476124054149]
AI取引の潜在的なリスクは、"ブラックボックス"決定である。
適切な監督なしにAIを使用する場合、AIは間違った選択を導き、大きな損失を被る可能性がある。
これらの問題は、トレーディング分野でAI技術が説明できる課題も浮き彫りにする。
論文 参考訳(メタデータ) (2022-02-03T02:14:38Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - "Weak AI" is Likely to Never Become "Strong AI", So What is its Greatest
Value for us? [4.497097230665825]
多くの研究者は、ここ数十年でAIがほとんど進歩していないと主張している。
著者は、AIに関する議論が存在する理由を説明します。(2)「弱いAI」と「強いAI」と呼ばれる2つのAI研究パラダイムを区別します。
論文 参考訳(メタデータ) (2021-03-29T02:57:48Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z) - Does the Whole Exceed its Parts? The Effect of AI Explanations on
Complementary Team Performance [44.730580857733]
以前の研究では、AIが人間と最高のチームの両方を上回った場合にのみ、説明による改善が観察された。
我々は、3つのデータセットで混合メソッドのユーザー研究を行い、人間に匹敵する精度のAIが、参加者のタスク解決に役立ちます。
説明は、人間がAIの推奨を受け入れる可能性を高める。
論文 参考訳(メタデータ) (2020-06-26T03:34:04Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。