論文の概要: AI for Just Work: Constructing Diverse Imaginations of AI beyond "Replacing Humans"
- arxiv url: http://arxiv.org/abs/2503.08720v1
- Date: Mon, 10 Mar 2025 20:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:40:39.458226
- Title: AI for Just Work: Constructing Diverse Imaginations of AI beyond "Replacing Humans"
- Title(参考訳): AI for Just Work:「人間を置き換える」以上のAIの多様なイマジネーションを構築する
- Authors: Weina Jin, Nicholas Vincent, Ghassan Hamarneh,
- Abstract要約: AIコミュニティは、通常、AI技術を開発するために"どのように"に焦点を当てるが、なぜ"なぜ"AIを開発するかについての完全なオープンな議論は欠如している。
AIの一般的なビジョンと目的に対する批判的な考察の欠如は、コミュニティを操作に脆弱にする可能性がある。
私たちは、AIの将来に対する私たちの一般的なビジョン、フレーム、マインドセットを描いている、AIの想像力について「なぜ」疑問に答える。
- 参考スコア(独自算出の注目度): 23.559681740648447
- License:
- Abstract: The AI community usually focuses on "how" to develop AI techniques, but lacks thorough open discussions on "why" we develop AI. Lacking critical reflections on the general visions and purposes of AI may make the community vulnerable to manipulation. In this position paper, we explore the "why" question of AI. We denote answers to the "why" question the imaginations of AI, which depict our general visions, frames, and mindsets for the prospects of AI. We identify that the prevailing vision in the AI community is largely a monoculture that emphasizes objectives such as replacing humans and improving productivity. Our critical examination of this mainstream imagination highlights its underpinning and potentially unjust assumptions. We then call to diversify our collective imaginations of AI, embedding ethical assumptions from the outset in the imaginations of AI. To facilitate the community's pursuit of diverse imaginations, we demonstrate one process for constructing a new imagination of "AI for just work," and showcase its application in the medical image synthesis task to make it more ethical. We hope this work will help the AI community to open dialogues with civil society on the visions and purposes of AI, and inspire more technical works and advocacy in pursuit of diverse and ethical imaginations to restore the value of AI for the public good.
- Abstract(参考訳): AIコミュニティは、通常、AI技術を開発するために"どのように"に焦点を当てるが、なぜ"なぜ"AIを開発するかについての完全なオープンな議論は欠如している。
AIの一般的なビジョンと目的に対する批判的な考察の欠如は、コミュニティを操作に脆弱にする可能性がある。
本稿では,AIの「なぜ」問題について考察する。
私たちは、AIの将来に対する私たちの一般的なビジョン、フレーム、マインドセットを描いている、AIの想像力について「なぜ」疑問に答える。
AIコミュニティにおける一般的なビジョンは、主に、人間の置き換えや生産性向上といった目的を強調するモノカルチャーである、と私たちは認識しています。
この主流の想像力に対する我々の批判的な検証は、その基盤と潜在的に不当な仮定を強調している。
そして私たちは、AIの集合的想像力を多様化し、AIの想像の始まりから倫理的仮定を埋め込むように呼びかけます。
地域社会の多様な想像力の追求を促進するため、我々は「仕事のためのAI」という新たな想像力を構築するための一つのプロセスを示し、医療画像合成タスクにおけるその応用を、より倫理的なものにするために提示する。
この取り組みにより、AIコミュニティは、AIのビジョンと目的に関する市民社会との対話をオープンし、多様で倫理的な想像力を追求して、公益のためのAIの価値を回復するために、より多くの技術的作業と擁護を喚起できることを期待しています。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Making AI Intelligible: Philosophical Foundations [0.0]
「AI知能の育成」は、意味のメタ物理に関する哲学的な研究がこれらの疑問に答えるのに役立つことを示している。
著者: 本書で取り上げられた質問は理論的に興味深いだけでなく、答えは実際的な意味を迫っている。
論文 参考訳(メタデータ) (2024-06-12T12:25:04Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - A Bibliometric View of AI Ethics Development [4.0998481751764]
我々は過去20年間,キーワード検索に基づくAI倫理文献の文献分析を行った。
AI倫理の次のフェーズは、AIが人間とマッチしたり、知的に超越したりするにつれて、AIをより機械的に近いものにすることに集中する可能性が高いと推測する。
論文 参考訳(メタデータ) (2024-02-08T16:36:55Z) - Reflective Artificial Intelligence [2.7412662946127755]
人間の心が以前この活動に持ち込んだであろう多くの重要な性質は、AIには全く欠落している。
人間がタスクにもたらす中核的な特徴は、リフレクションである。
しかし、この能力は、現在の主流AIには全く欠落している。
本稿では、リフレクティブAIがどのようなものになるかを尋ねる。
論文 参考訳(メタデータ) (2023-01-25T20:50:26Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。