論文の概要: Can AI be Accountable?
- arxiv url: http://arxiv.org/abs/2510.26057v1
- Date: Thu, 30 Oct 2025 01:16:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.618901
- Title: Can AI be Accountable?
- Title(参考訳): AIは説明可能であるか?
- Authors: Andrew L. Kun,
- Abstract要約: 一般に、フォーラムがエージェントからそのアクションに関する情報を要求できる場合、エージェントはフォーラムに説明責任を負う。
あまりに多くのケースにおいて、今日のAIは責任を負うことができない。
- 参考スコア(独自算出の注目度): 4.798219578937121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI we use is powerful, and its power is increasing rapidly. If this powerful AI is to serve the needs of consumers, voters, and decision makers, then it is imperative that the AI is accountable. In general, an agent is accountable to a forum if the forum can request information from the agent about its actions, if the forum and the agent can discuss this information, and if the forum can sanction the agent. Unfortunately, in too many cases today's AI is not accountable -- we cannot question it, enter into a discussion with it, let alone sanction it. In this chapter we relate the general definition of accountability to AI, we illustrate what it means for AI to be accountable and unaccountable, and we explore approaches that can improve our chances of living in a world where all AI is accountable to those who are affected by it.
- Abstract(参考訳): 使用するAIは強力で、そのパワーは急速に増加しています。
もしこの強力なAIが消費者、有権者、そして意思決定者のニーズを満たすならば、AIは責任を負うことが必須である。
一般に、フォーラムがエージェントからその行動に関する情報を要求できる場合、フォーラムとエージェントがこの情報を議論できる場合、そしてフォーラムがエージェントを制裁できる場合は、エージェントはフォーラムに説明責任を負うことができる。
残念なことに、今日のAIはあまりにも多くのケースで説明責任を負うことができない。
この章では、AIに対する説明責任の一般的な定義を説明し、AIが説明可能で非可算であることの意味を説明する。
関連論文リスト
- Designing AI-Enabled Countermeasures to Cognitive Warfare [0.0]
ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
本稿では,認知戦争に対するAI対応対策の可能性を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:36:03Z) - Actionable AI: Enabling Non Experts to Understand and Configure AI Systems [5.534140394498714]
Actionable AIでは、非専門家がブラックボックスエージェントを設定することができる。
不確実な条件下では、非専門家は高いレベルの性能を達成する。
我々は、AIベースのエージェントへのアクセスをオープンにする手段として、Actionable AIを提案する。
論文 参考訳(メタデータ) (2025-03-09T23:09:04Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Responsible AI Agents [17.712990593093316]
OpenAI、Google、Microsoft、Salesforceといった企業は、AI Agentsが受動的テキストからタスク実行に移行することを約束している。
AIエージェントの潜在的なパワーは、AIエージェントが不正な商取引、人間の操作、爆発的な破壊、知的財産の被害を可能にするという法律学者の恐れを加速させた。
この記事では、AIエージェントの方向性に関する懸念に対処する。
それは、あるソフトウェアが別のソフトウェアとどのように相互作用するかという中核的な側面が、AIエージェントを規律づける方法を生み出し、望ましくない行動が起こりそうにないことを示している。
論文 参考訳(メタデータ) (2025-02-25T16:49:06Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - On Avoiding Power-Seeking by Artificial Intelligence [93.9264437334683]
私たちは、非常にインテリジェントなAIエージェントの振る舞いと人間の関心を協調する方法を知りません。
私は、世界に限られた影響を与え、自律的に力を求めないスマートAIエージェントを構築できるかどうか調査する。
論文 参考訳(メタデータ) (2022-06-23T16:56:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Evidence-based explanation to promote fairness in AI systems [3.190891983147147]
人は意思決定をし、通常、自分の決定を他の人や何かに説明する必要があります。
意思決定をAIサポートで説明するためには、AIがその決定の一部となっているかを理解する必要がある。
我々は,「意思決定の物語を語る」ためのエビデンスに基づく説明設計アプローチを模索してきた。
論文 参考訳(メタデータ) (2020-03-03T14:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。