論文の概要: Developing a Grounded View of AI
- arxiv url: http://arxiv.org/abs/2511.14013v1
- Date: Tue, 18 Nov 2025 00:39:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.855587
- Title: Developing a Grounded View of AI
- Title(参考訳): AIの基盤的視点の構築
- Authors: Bifei Mao, Lanqing Hong,
- Abstract要約: 本稿では,人工知能の性質と限界を明らかにするために,工学的観点からの人工知能の挙動を考察する。
本稿では,3種類の意思決定を伴うAIモデルの行動の識別を可能かつ実践的に行う手法を提案する。
- 参考スコア(独自算出の注目度): 26.688384331221343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a capability coming from computation, how does AI differ fundamentally from the capabilities delivered by rule-based software program? The paper examines the behavior of artificial intelligence (AI) from engineering points of view to clarify its nature and limits. The paper argues that the rationality underlying humanity's impulse to pursue, articulate, and adhere to rules deserves to be valued and preserved. Identifying where rule-based practical rationality ends is the beginning of making it aware until action. Although the rules of AI behaviors are still hidden or only weakly observable, the paper has proposed a methodology to make a sense of discrimination possible and practical to identify the distinctions of the behavior of AI models with three types of decisions. It is a prerequisite for human responsibilities with alternative possibilities, considering how and when to use AI. It would be a solid start for people to ensure AI system soundness for the well-being of humans, society, and the environment.
- Abstract(参考訳): 計算能力として、AIはルールベースのソフトウェアプログラムがもたらす能力と根本的に異なるものなのでしょうか?
本稿では,人工知能(AI)の性質と限界を明らかにするため,工学的観点からの行動について考察する。
論文は、人類が規則を追求し、明示し、遵守する衝動の根拠となる合理性は評価され、保存されるべきであると主張している。
ルールに基づく実践的合理性(practical rationality)がどこに終わるかを特定することは、行動までそれを認識させる始まりである。
AI行動のルールはまだ隠されているか、あるいは弱い観察しかできないが、本論文は3種類の決定を伴うAIモデルの行動の区別を可能かつ実践的に識別する手法を提案している。
これは、AIの使い方と使用時期を考慮して、代替可能性を持つ人間の責任のための前提条件である。
人間、社会、そして環境の幸福のために、人々がAIシステムの健全性を確保するための確かな出発点となるでしょう。
関連論文リスト
- Towards a Theory of AI Personhood [1.6317061277457001]
我々はAIの人格化に必要な条件を概説する。
もしAIシステムが人間と見なせるなら、AIアライメントの典型的な枠組みは不完全かもしれない。
論文 参考訳(メタデータ) (2025-01-23T10:31:26Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - A.I. go by many names: towards a sociotechnical definition of artificial intelligence [0.0]
人工知能(AI)の定義は永続的な課題であり、技術的曖昧さと様々な解釈に悩まされることが多い。
このエッセイは、研究に明快さを必要とする研究者にとって不可欠である、AIの社会技術的定義を論証するものである。
論文 参考訳(メタデータ) (2024-10-17T11:25:50Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI [0.0]
データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
論文 参考訳(メタデータ) (2023-02-23T16:33:40Z) - Can Machines Imitate Humans? Integrative Turing-like tests for Language and Vision Demonstrate a Narrowing Gap [56.611702960809644]
3つの言語タスクと3つの視覚タスクで人間を模倣するAIの能力をベンチマークする。
次に,人間1,916名,AI10名を対象に,72,191名のチューリング様試験を行った。
模倣能力は従来のAIパフォーマンス指標と最小限の相関を示した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。