論文の概要: Responsible AI Agents
- arxiv url: http://arxiv.org/abs/2502.18359v1
- Date: Tue, 25 Feb 2025 16:49:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:22:28.767072
- Title: Responsible AI Agents
- Title(参考訳): 責任あるAIエージェント
- Authors: Deven R. Desai, Mark O. Riedl,
- Abstract要約: OpenAI、Google、Microsoft、Salesforceといった企業は、AI Agentsが受動的テキストからタスク実行に移行することを約束している。
AIエージェントの潜在的なパワーは、AIエージェントが不正な商取引、人間の操作、爆発的な破壊、知的財産の被害を可能にするという法律学者の恐れを加速させた。
この記事では、AIエージェントの方向性に関する懸念に対処する。
それは、あるソフトウェアが別のソフトウェアとどのように相互作用するかという中核的な側面が、AIエージェントを規律づける方法を生み出し、望ましくない行動が起こりそうにないことを示している。
- 参考スコア(独自算出の注目度): 17.712990593093316
- License:
- Abstract: Thanks to advances in large language models, a new type of software agent, the artificial intelligence (AI) agent, has entered the marketplace. Companies such as OpenAI, Google, Microsoft, and Salesforce promise their AI Agents will go from generating passive text to executing tasks. Instead of a travel itinerary, an AI Agent would book all aspects of your trip. Instead of generating text or images for social media post, an AI Agent would post the content across a host of social media outlets. The potential power of AI Agents has fueled legal scholars' fears that AI Agents will enable rogue commerce, human manipulation, rampant defamation, and intellectual property harms. These scholars are calling for regulation before AI Agents cause havoc. This Article addresses the concerns around AI Agents head on. It shows that core aspects of how one piece of software interacts with another creates ways to discipline AI Agents so that rogue, undesired actions are unlikely, perhaps more so than rules designed to govern human agents. It also develops a way to leverage the computer-science approach to value-alignment to improve a user's ability to take action to prevent or correct AI Agent operations. That approach offers and added benefit of helping AI Agents align with norms around user-AI Agent interactions. These practices will enable desired economic outcomes and mitigate perceived risks. The Article also argues that no matter how much AI Agents seem like human agents, they need not, and should not, be given legal personhood status. In short, humans are responsible for AI Agents' actions, and this Article provides a guide for how humans can build and maintain responsible AI Agents.
- Abstract(参考訳): 大規模言語モデルの進歩により、新しいタイプのソフトウェアエージェントである人工知能(AI)エージェントが市場に参入した。
OpenAI、Google、Microsoft、Salesforceといった企業は、AI Agentsが受動的テキストからタスク実行に移行することを約束している。
旅行の旅ではなく、AIエージェントが旅行のあらゆる側面を予約する。
ソーシャルメディアの投稿のためにテキストや画像を生成する代わりに、AIエージェントがコンテンツをソーシャルメディアのホストに投稿する。
AIエージェントの潜在的なパワーは、AIエージェントが不正な商取引、人間の操作、爆発的な破壊、知的財産の被害を可能にするという法律学者の恐れを加速させた。
これらの学者はAIエージェントが嫌悪を引き起こす前に規制を要求している。
この記事では、AIエージェントの方向性に関する懸念に対処する。
それは、あるソフトウェアが他のソフトウェアとどのように相互作用するかという中核的な側面が、人間のエージェントを管理するために設計されたルールよりもむしろ、汚い、望ましくないアクションがありそうにないように、AIエージェントを規律する方法を生み出していることを示している。
また、コンピュータサイエンスのアプローチをバリューアライメントに活用して、AIエージェント操作の防止や修正を行うユーザの能力を向上させる方法も開発している。
このアプローチは、AIエージェントがユーザとAIエージェントのインタラクションに関する規範と整合するのに役立つ。
これらのプラクティスは、望ましい経済成果を可能にし、認識されるリスクを軽減します。
記事はまた、AIエージェントがいくら人間のエージェントのように見えるにせよ、法的人格の地位を与えられる必要はない、と論じている。
要するに、人間はAIエージェントの行動に責任を持ち、この記事では、人間が責任を持つAIエージェントを構築し維持する方法のガイドを提供する。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Agents Are Not Enough [16.142735071162765]
人間のために行動する自律プログラムは、メインストリームのAIムーブメントに新しくも排他的でもない。
現在のエージェントの波を効果的かつ持続可能なものにするために,ユーザの好みや行動を表すSimsや,直接ユーザと対話し,エージェントの助けを借りてユーザタスクの実行をコーディネートするAssistantsを含むエコシステムを構想する。
論文 参考訳(メタデータ) (2024-12-19T16:54:17Z) - Promoting Cooperation in the Public Goods Game using Artificial Intelligent Agents [0.0]
計算進化モデルを用いて、AIエージェントがプレイヤーの動作を模倣した場合のみ、協調のための重要なシナジー閾値が低下することがわかった。
このことは、人間のプレイヤーを模倣するAIエージェントを設計することで、AIを活用して社会的ジレンマにおける集団的幸福を促進することができることを示唆している。
論文 参考訳(メタデータ) (2024-12-06T22:16:21Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Navigates Like Me: Understanding How People Evaluate Human-Like AI in
Video Games [36.96985093527702]
エージェントとベースラインAIエージェントが生成するナビゲーション行動の人間的類似性を比較したクラウドソースによる数百のアセスメントを収集する。
提案するエージェントはチューリングテストに合格するが,ベースラインエージェントは合格しない。
この研究は、ゴール指向のビデオゲームナビゲーションの文脈において、人間が人間的と考える特性に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-02T18:59:04Z) - Evidence of behavior consistent with self-interest and altruism in an
artificially intelligent agent [2.1016374925364616]
オープンAIによって開発された大規模言語モデルからなるAIエージェント間の利他的行動をテストするためのインセンティブ付き実験を提案する。
この研究でもっとも高度化されたAIエージェントだけが、非社会的決定タスクにおいて、その報酬を最大化していることがわかった。
また、このAIエージェントは、ディクテーターゲームにおいて最も多彩な利他的行動を示し、ゲーム内の他の人間との共有率に類似している。
論文 参考訳(メタデータ) (2023-01-05T23:30:29Z) - Measuring an artificial intelligence agent's trust in humans using
machine incentives [2.1016374925364616]
人間に対するAIエージェントの信頼を評価することは難しい。
本稿では,AIエージェントのアルゴリズムやゴールオリエンテーションを変更することなく,機械決定をインセンティブ化する手法を提案する。
我々の実験は、これまでで最も先進的なAI言語モデルの一つがインセンティブに反応して社会行動を変えることを示唆している。
論文 参考訳(メタデータ) (2022-12-27T06:05:49Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。