論文の概要: Stop Saying "AI"
- arxiv url: http://arxiv.org/abs/2602.17729v2
- Date: Wed, 25 Feb 2026 16:18:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 16:16:21.270905
- Title: Stop Saying "AI"
- Title(参考訳): 「AI」と言うのをやめる
- Authors: Nathan G. Wood, Scott Robbins, Eduardo Zegarra Berodt, Anton Graf von Westerholt, Michelle Behrndt, Hauke Budig, Daniel Kloock-Schreiber,
- Abstract要約: 「我々は軍事領域を事例研究として焦点をあて、軍事AIという包括的用語で捉えたシステムの緩やかな数えきれない分類を提示する。」
我々は、議論が実りある方向に進むためには、議論をより正確にし、AIが可能な限り議論から除外されることが不可欠である、と論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across academia, industry, and government, ``AI'' has become central in research and development, regulatory debates, and promises of ever faster and more capable decision-making and action. In numerous domains, especially safety-critical ones, there are significant concerns over how ``AI'' may affect decision-making, responsibility, or the likelihood of mistakes (to name only a few categories of critique). However, for most critiques, the target is generally ``AI'', a broad term admitting many (types of) systems used for a variety of tasks and each coming with its own set of limitations, challenges, and potential use cases. In this article, we focus on the military domain as a case study and present both a loose enumerative taxonomy of systems captured under the umbrella term ``military AI'', as well as discussion of the challenges of each. In doing so, we highlight that critiques of one (type of) system will not always transfer to other (types of) systems. Building on this, we argue that in order for debates to move forward fruitfully, it is imperative that the discussions be made more precise and that ``AI'' be excised from debates to the extent possible. Researchers, developers, and policy-makers should make clear exactly what systems they have in mind and what possible benefits and risks attend the deployment of those particular systems. While we focus on AI in the military as an exemplar for the overall trends in discussions of ``AI'', the argument's conclusions are broad and have import for discussions of AI across a host of domains.
- Abstract(参考訳): 学術、産業、政府全体で、'AI'は研究と開発、規制に関する議論、より迅速かつ有能な意思決定と行動の約束の中心となっている。
多くのドメイン、特に安全クリティカルなドメインでは、'AI'が意思決定や責任、ミスの可能性(批判のいくつかのカテゴリのみ)にどのように影響するか、重大な懸念がある。
しかし、ほとんどの批評家にとって、ターゲットは一般に 'AI' であり、様々なタスクに使用される多くの(タイプの)システムを認め、それぞれ独自の制限、課題、潜在的なユースケースを持っている。
本稿では,軍事領域を事例研究として取り上げ,「軍事AI」という傘の下に捕獲されたシステムの緩やかな数え切れない分類と,それぞれの課題について論じる。
そうすることで、1つの(タイプの)システムの批判が、必ずしも他の(タイプの)システムに移行するとは限らないことを強調します。
このことから,議論を円滑に進めるためには,議論をより的確に行うことが不可欠であり,議論から可能な限り「AI」を抽出することが不可欠である。
研究者、開発者、そして政策立案者は、彼らがどのシステムを念頭に置いていて、どのようなメリットやリスクが特定のシステムのデプロイに関与するかを明確にする必要がある。
我々は、'AI'の議論における全体的なトレンドの見本として、軍隊におけるAIに焦点を当てているが、議論の結論は広く、多くのドメインにわたるAIの議論のために輸入されている。
関連論文リスト
- Responsible Artificial Intelligence (RAI) in U.S. Federal Government : Principles, Policies, and Practices [0.0]
人工知能(AI)と機械学習(ML)は、過去数十年で大きな進歩を遂げてきた。
AI/MLの急速な成長と、多くの民間および公共セクターのアプリケーションへの普及は成功したが、規制当局にとって新たな課題と障害が開かれた。
新たな意思決定AI/MLシステムには、人間による関与がほとんど、あるいはほとんど必要とされないため、これらのシステムの責任を負うことを保証する必要が迫られている。
論文 参考訳(メタデータ) (2025-01-12T16:06:37Z) - Unraveling the Nuances of AI Accountability: A Synthesis of Dimensions Across Disciplines [0.0]
我々は、複数の分野にわたる現在の研究をレビューし、AIの文脈における説明責任の重要な側面を特定する。
13の次元と追加の説明責任ファシリテータを持つ6つのテーマを明らかにする。
論文 参考訳(メタデータ) (2024-10-05T18:08:39Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。