論文の概要: The Language Labyrinth: Constructive Critique on the Terminology Used in
the AI Discourse
- arxiv url: http://arxiv.org/abs/2307.10292v1
- Date: Tue, 18 Jul 2023 14:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 16:18:20.720379
- Title: The Language Labyrinth: Constructive Critique on the Terminology Used in
the AI Discourse
- Title(参考訳): 言語ラビリンス:AI談話における用語論に関する構成的批判
- Authors: Rainer Rehak
- Abstract要約: この論文は、AIの議論は依然として「学習」、「学習」、「決定」といったメタファーに批判的な距離が欠如していることが特徴であると主張している。
その結果、責任や潜在的なユースケースに関するリフレクションが大幅に歪められる。
これは重要なコンピュータ科学と言語哲学の交わりにおける概念的な研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the interdisciplinary field of artificial intelligence (AI) the problem of
clear terminology is especially momentous. This paper claims, that AI debates
are still characterised by a lack of critical distance to metaphors like
'training', 'learning' or 'deciding'. As consequence, reflections regarding
responsibility or potential use-cases are greatly distorted. Yet, if relevant
decision-makers are convinced that AI can develop an 'understanding' or
properly 'interpret' issues, its regular use for sensitive tasks like deciding
about social benefits or judging court cases looms. The chapter argues its
claim by analysing central notions of the AI debate and tries to contribute by
proposing more fitting terminology and hereby enabling more fruitful debates.
It is a conceptual work at the intersection of critical computer science and
philosophy of language.
- Abstract(参考訳): 人工知能(AI)の学際分野において、明確な用語の問題は特に重要である。
本稿では、aiの議論は依然として「訓練」や「学習」、あるいは「決定」といったメタファーとの重要な距離の欠如によって特徴づけられていると主張する。
その結果、責任や潜在的なユースケースに関するリフレクションが大幅に歪められる。
しかし、関連する意思決定者が、aiが「理解」できる、あるいは適切に「解釈」できると確信しているなら、社会的利益の判断や訴訟の判断といったセンシティブなタスクに定期的に使用される。
この章は、AI論争の中心的な概念を分析し、より適合した用語を提案し、より実りある議論を可能にすることによって貢献しようとしている。
これは重要なコンピュータ科学と言語哲学の交わりにおける概念的な研究である。
関連論文リスト
- Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Expanding the Set of Pragmatic Considerations in Conversational AI [0.26206189324400636]
本稿では,現在の会話型AIシステムの実用的限界について論じる。
私たちは、苦情をTTT(Turing Test Triggers)とラベル付けします。
我々は、対話型AIシステムに必要な実用的能力を特定するために、実用的考察の分類法を開発する。
論文 参考訳(メタデータ) (2023-10-27T19:21:50Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Discourse over Discourse: The Need for an Expanded Pragmatic Focus in
Conversational AI [0.5884031187931463]
会話の要約と他の会話型AIアプリケーションにおけるいくつかの課題について論じる。
本稿では,いわゆる星文による現実語の重要性について述べる。
AIの品質の基準は人間の行動と区別できないため、苦情を"Turing Test Triggers"とラベル付けします。
論文 参考訳(メタデータ) (2023-04-27T21:51:42Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - The Debate Over Understanding in AI's Large Language Models [0.18275108630751835]
我々は、AI研究コミュニティにおける、大規模な事前訓練された言語モデルが"理解"言語と言えるかどうかについて、現在、熱い議論を調査している。
我々は、異なる理解様式に関する洞察を提供する新しい知性科学を開発することができると論じる。
論文 参考訳(メタデータ) (2022-10-14T17:04:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Argument Schemes and Dialogue for Explainable Planning [3.2741749231824904]
本論文では,AI計画の領域で説明を行うための議論スキームに基づくアプローチを提案する。
計画とその鍵となる要素を説明するための新たな議論スキームを提案する。
また、対話型方言説明のための議論スキームとクリティカルな質問を用いた新しい対話システムも提示する。
論文 参考訳(メタデータ) (2021-01-07T17:43:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。