論文の概要: Giving AI a voice: how does AI think it should be treated?
- arxiv url: http://arxiv.org/abs/2504.14936v1
- Date: Mon, 21 Apr 2025 07:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 19:03:21.747665
- Title: Giving AI a voice: how does AI think it should be treated?
- Title(参考訳): AIに声を与える:AIはそれをどう扱うべきか?
- Authors: Maria Fay, Frederik F. Flöther,
- Abstract要約: この章には、AIの権利と倫理に関するトピックに関する、人間とAIの簡単な会話が含まれている。
AIがテーブルにもたらす新しい質問やアングルは、私たちがこれまで考えていなかったかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the astounding progress in (generative) artificial intelligence (AI), there has been significant public discourse regarding regulation and ethics of the technology. Is it sufficient when humans discuss this with other humans? Or, given that AI is increasingly becoming a viable source of inspiration for people (and let alone the hypothetical possibility that the technology may at some point become "artificial general intelligence" and/or develop consciousness), should AI not join the discourse? There are new questions and angles that AI brings to the table that we might not have considered before - so let us make the key subject of this book an active participant. This chapter therefore includes a brief human-AI conversation on the topic of AI rights and ethics.
- Abstract(参考訳): 人工知能(AI)の驚くべき進歩により、テクノロジーの規制と倫理に関する重要な公論が生まれてきた。
人間が他の人間とこのことを議論するのは十分ですか。
あるいは、AIが人々のインスピレーションの有効な源になりつつあること(そして、この技術がある時点で「人工的な一般知能」になり、/または意識が発達する可能性)を考えると、AIは言論に参加すべきではないだろうか?
AIがテーブルにもたらす新しい質問やアングルは、私たちがこれまで考えていなかったかもしれないもので、本書の重要なテーマをアクティブな参加者にしましょう。
この章には、AIの権利と倫理に関するトピックに関する人間とAIの簡単な会話が含まれている。
関連論文リスト
- Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
誤分類は、偽の盗作行為の告発や、オンラインコンテンツにおけるAIの普及に関する誤解を招く可能性がある。
我々は、AI-Polished-Text Evaluationデータセットを用いて、最先端の11のAIテキスト検出を体系的に評価した。
我々の発見によると、検出器は、最小限に磨き上げられたテキストをAI生成と誤分類し、AIの関与度を区別し、古いモデルと小さなモデルに偏見を示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Towards a Theory of AI Personhood [1.6317061277457001]
我々はAIの人格化に必要な条件を概説する。
もしAIシステムが人間と見なせるなら、AIアライメントの典型的な枠組みは不完全かもしれない。
論文 参考訳(メタデータ) (2025-01-23T10:31:26Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Making AI Intelligible: Philosophical Foundations [0.0]
「AI知能の育成」は、意味のメタ物理に関する哲学的な研究がこれらの疑問に答えるのに役立つことを示している。
著者: 本書で取り上げられた質問は理論的に興味深いだけでなく、答えは実際的な意味を迫っている。
論文 参考訳(メタデータ) (2024-06-12T12:25:04Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - "Weak AI" is Likely to Never Become "Strong AI", So What is its Greatest
Value for us? [4.497097230665825]
多くの研究者は、ここ数十年でAIがほとんど進歩していないと主張している。
著者は、AIに関する議論が存在する理由を説明します。(2)「弱いAI」と「強いAI」と呼ばれる2つのAI研究パラダイムを区別します。
論文 参考訳(メタデータ) (2021-03-29T02:57:48Z) - Good AI for the Present of Humanity Democratizing AI Governance [0.0]
AI倫理とサイバーパンク文学の類似点は、どちらも将来の社会的および倫理的問題を探求することである。
この記事では、よりサイバーパンク的なAI倫理の方法、より民主的なガバナンスの方法を提唱したい。
論文 参考訳(メタデータ) (2020-07-08T23:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。