論文の概要: The Language Labyrinth: Constructive Critique on the Terminology Used in
the AI Discourse
- arxiv url: http://arxiv.org/abs/2307.10292v1
- Date: Tue, 18 Jul 2023 14:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 16:18:20.720379
- Title: The Language Labyrinth: Constructive Critique on the Terminology Used in
the AI Discourse
- Title(参考訳): 言語ラビリンス:AI談話における用語論に関する構成的批判
- Authors: Rainer Rehak
- Abstract要約: この論文は、AIの議論は依然として「学習」、「学習」、「決定」といったメタファーに批判的な距離が欠如していることが特徴であると主張している。
その結果、責任や潜在的なユースケースに関するリフレクションが大幅に歪められる。
これは重要なコンピュータ科学と言語哲学の交わりにおける概念的な研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the interdisciplinary field of artificial intelligence (AI) the problem of
clear terminology is especially momentous. This paper claims, that AI debates
are still characterised by a lack of critical distance to metaphors like
'training', 'learning' or 'deciding'. As consequence, reflections regarding
responsibility or potential use-cases are greatly distorted. Yet, if relevant
decision-makers are convinced that AI can develop an 'understanding' or
properly 'interpret' issues, its regular use for sensitive tasks like deciding
about social benefits or judging court cases looms. The chapter argues its
claim by analysing central notions of the AI debate and tries to contribute by
proposing more fitting terminology and hereby enabling more fruitful debates.
It is a conceptual work at the intersection of critical computer science and
philosophy of language.
- Abstract(参考訳): 人工知能(AI)の学際分野において、明確な用語の問題は特に重要である。
本稿では、aiの議論は依然として「訓練」や「学習」、あるいは「決定」といったメタファーとの重要な距離の欠如によって特徴づけられていると主張する。
その結果、責任や潜在的なユースケースに関するリフレクションが大幅に歪められる。
しかし、関連する意思決定者が、aiが「理解」できる、あるいは適切に「解釈」できると確信しているなら、社会的利益の判断や訴訟の判断といったセンシティブなタスクに定期的に使用される。
この章は、AI論争の中心的な概念を分析し、より適合した用語を提案し、より実りある議論を可能にすることによって貢献しようとしている。
これは重要なコンピュータ科学と言語哲学の交わりにおける概念的な研究である。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - AI Thinking: A framework for rethinking artificial intelligence in practice [2.9805831933488127]
現在、AIの実践についての研究、開発、評価に様々な分野が関わっている。
新しい学際的アプローチは、実際にAIの競合する概念化を橋渡しするために必要である。
このフレームワークは、学際的な視点でAIの使用に関する重要な決定と考察をモデル化する。
論文 参考訳(メタデータ) (2024-08-26T04:41:21Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Expanding the Set of Pragmatic Considerations in Conversational AI [0.26206189324400636]
本稿では,現在の会話型AIシステムの実用的限界について論じる。
私たちは、苦情をTTT(Turing Test Triggers)とラベル付けします。
我々は、対話型AIシステムに必要な実用的能力を特定するために、実用的考察の分類法を開発する。
論文 参考訳(メタデータ) (2023-10-27T19:21:50Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Discourse over Discourse: The Need for an Expanded Pragmatic Focus in
Conversational AI [0.5884031187931463]
会話の要約と他の会話型AIアプリケーションにおけるいくつかの課題について論じる。
本稿では,いわゆる星文による現実語の重要性について述べる。
AIの品質の基準は人間の行動と区別できないため、苦情を"Turing Test Triggers"とラベル付けします。
論文 参考訳(メタデータ) (2023-04-27T21:51:42Z) - The Debate Over Understanding in AI's Large Language Models [0.18275108630751835]
我々は、AI研究コミュニティにおける、大規模な事前訓練された言語モデルが"理解"言語と言えるかどうかについて、現在、熱い議論を調査している。
我々は、異なる理解様式に関する洞察を提供する新しい知性科学を開発することができると論じる。
論文 参考訳(メタデータ) (2022-10-14T17:04:29Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。