論文の概要: A Case for Specialisation in Non-Human Entities
- arxiv url: http://arxiv.org/abs/2503.04742v2
- Date: Thu, 21 Aug 2025 08:41:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 14:03:17.079588
- Title: A Case for Specialisation in Non-Human Entities
- Title(参考訳): 非ヒト領域の専門化の事例
- Authors: El-Mahdi El-Mhamdi, Lê-Nguyên Hoang, Mariame Tighanimine,
- Abstract要約: 我々は、一般化の落とし穴をレビューし、特殊化システムの産業価値を強調することにより、専門化の事例を作る。
まず, 専門化に対する最も広く受け入れられている議論を概観し, 人的労働の文脈におけるそれらの関連性が, 実際に専門化の議論であるかについて論じる。
第2に,機械学習からコンピュータセキュリティ,社会科学,文化進化に至るまで,専門化を支持する4つの議論を提案する。
- 参考スコア(独自算出の注目度): 5.735035463793008
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the rise of large multi-modal AI models, fuelled by recent interest in large language models (LLMs), the notion of artificial general intelligence (AGI) went from being restricted to a fringe community, to dominate mainstream large AI development programs. In contrast, in this paper, we make a case for specialisation, by reviewing the pitfalls of generality and stressing the industrial value of specialised systems. Our contribution is threefold. First, we review the most widely accepted arguments against specialisation, and discuss how their relevance in the context of human labour is actually an argument for specialisation in the case of non human agents, be they algorithms or human organisations. Second, we propose four arguments in favor of specialisation, ranging from machine learning robustness, to computer security, social sciences and cultural evolution. Third, we finally make a case for specification, discuss how the machine learning approach to AI has so far failed to catch up with good practices from safety-engineering and formal verification of software, and discuss how some emerging good practices in machine learning help reduce this gap. In particular, we justify the need for specified governance for hard-to-specify systems.
- Abstract(参考訳): 近年の大規模言語モデル(LLMs)への関心が高まり、大規模なマルチモーダルAIモデルの台頭により、人工知能(AGI)の概念は、主流の大規模AI開発プログラムを支配するために、フリンジコミュニティに限られるようになった。
対照的に、本稿では、一般化の落とし穴をレビューし、特化システムの産業価値を強調することにより、専門化を事例に述べる。
私たちの貢献は3倍です。
まず, 専門化に対する最も広く受け入れられている議論を概観し, 人的労働の文脈におけるそれらの関係が, アルゴリズムや人的組織といった非人的エージェントの場合において, 実際に専門化の議論であるかについて論じる。
第2に,機械学習の堅牢性からコンピュータセキュリティ,社会科学,文化進化に至るまで,専門性を支持する4つの議論を提案する。
第3に、ようやく仕様を策定し、これまでAIに対する機械学習アプローチが、安全エンジニアリングやソフトウェアの形式的検証といった優れたプラクティスに追いつかなかった方法について議論し、機械学習における新たなベストプラクティスによって、このギャップを減らした方法について論じる。
特に、特定困難なシステムの特定のガバナンスの必要性を正当化する。
関連論文リスト
- Formal Mathematical Reasoning: A New Frontier in AI [60.26950681543385]
我々は公式な数学的推論を提唱し、AI4Mathを次のレベルに進めるには不可欠であると主張している。
既存の進捗を要約し、オープンな課題について議論し、将来の成功を測るための重要なマイルストーンを想定します。
論文 参考訳(メタデータ) (2024-12-20T17:19:24Z) - Artificial Expert Intelligence through PAC-reasoning [21.91294369791479]
人工知能(AEI)は、人工知能(AGI)と狭義のAIの両方の限界を超越しようとしている。
AEIは、ドメイン固有の専門知識と、トップヒューマンの専門家と同様、批判的で正確な推論能力を統合することを目指している。
論文 参考訳(メタデータ) (2024-12-03T13:25:18Z) - Networks of Networks: Complexity Class Principles Applied to Compound AI Systems Design [63.24275274981911]
多くの言語モデル推論コールからなる複合AIシステムは、ますます採用されている。
本研究では,提案した回答の生成と正当性検証の区別を中心に,ネットワークネットワーク(NoN)と呼ばれるシステムを構築した。
我々は,Kジェネレータを備えた検証器ベースの判定器NoNを導入し,"Best-of-K"あるいは"judge-based"複合AIシステムのインスタンス化を行う。
論文 参考訳(メタデータ) (2024-07-23T20:40:37Z) - Cognition is All You Need -- The Next Layer of AI Above Large Language
Models [0.0]
我々は,大規模言語モデル以外のニューロシンボリック認知のためのフレームワークであるCognitive AIを紹介する。
我々は、認知AIがAGIのようなAI形態の進化に必須の先駆者であり、AGIは独自の確率論的アプローチでは達成できないと主張する。
我々は、大規模言語モデル、AIの採用サイクル、および商用の認知AI開発に関する議論で締めくくります。
論文 参考訳(メタデータ) (2024-03-04T16:11:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Selected Trends in Artificial Intelligence for Space Applications [69.3474006357492]
この章は、差別化可能なインテリジェンスとオンボード機械学習に焦点を当てている。
欧州宇宙機関(ESA)Advanced Concepts Team(ACT)から選ばれたいくつかのプロジェクトについて論じる。
論文 参考訳(メタデータ) (2022-12-10T07:49:50Z) - Thinking Fast and Slow in AI: the Role of Metacognition [35.114607887343105]
最先端のAIには、(人間)インテリジェンスの概念に自然に含まれる多くの能力がない。
私たちは、人間がこれらの能力を持つことができるメカニズムをよりよく研究することで、これらの能力でAIシステムを構築する方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-05T06:05:38Z) - Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable [5.4138734778206]
ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしている。
関連する制限は、今日のAIシステムの中で最も成功した場合でも脆さに苦しむことです。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
論文 参考訳(メタデータ) (2020-12-11T00:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。