論文の概要: Naming is framing: How cybersecurity's language problems are repeating in AI governance
- arxiv url: http://arxiv.org/abs/2504.13957v1
- Date: Wed, 16 Apr 2025 20:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 08:19:24.139744
- Title: Naming is framing: How cybersecurity's language problems are repeating in AI governance
- Title(参考訳): AIガバナンスにおけるサイバーセキュリティの言語問題はどのように繰り返されているのか
- Authors: Liane Potter,
- Abstract要約: この論文は、サイバーセキュリティや人工知能(AI)のようなミスノマーは意味論以上のものだと論じている。
これらのミスノマーは、人事機関を隠蔽し、期待を膨らませ、説明責任を歪ませることで、重大なガバナンスリスクを負うと主張している。
この論文は、AIガバナンスに対する言語第一のアプローチを提唱している: 支配的な比喩を尋問し、人間の役割を予見し、正確で包括的で反射的なレキシコンを共同開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Language is not neutral; it frames understanding, structures power, and shapes governance. This paper argues that misnomers like cybersecurity and artificial intelligence (AI) are more than semantic quirks; they carry significant governance risks by obscuring human agency, inflating expectations, and distorting accountability. Drawing on lessons from cybersecurity's linguistic pitfalls, such as the 'weakest link' narrative, this paper highlights how AI discourse is falling into similar traps with metaphors like 'alignment,' 'black box,' and 'hallucination.' These terms embed adversarial, mystifying, or overly technical assumptions into governance structures. In response, the paper advocates for a language-first approach to AI governance: one that interrogates dominant metaphors, foregrounds human roles, and co-develops a lexicon that is precise, inclusive, and reflexive. This paper contends that linguistic reform is not peripheral to governance but central to the construction of transparent, equitable, and anticipatory regulatory frameworks.
- Abstract(参考訳): 言語は中立的ではなく、理解し、構造し、ガバナンスを形作る。
この論文は、サイバーセキュリティや人工知能(AI)のようなミスノマーは、意味論以上のものであり、人事の隠蔽、期待の膨らみ、説明責任の歪曲による重大なガバナンスリスクを負っている、と論じている。
この論文は、サイバーセキュリティの言語的落とし穴、例えば「最も弱いリンク」の物語から学んだ教訓に基づいて、「アライメント」、「ブラックボックス」、「ハロシン化」といったメタファーで、AIの談話が似たような罠にどのように陥りつつあるかを強調する。
これらの用語は、敵対的、神秘的、あるいは過度に技術的な仮定をガバナンス構造に組み込む。
この論文は、AIガバナンスに対する言語第一のアプローチを提唱している: 支配的な比喩を尋問し、人間の役割を予見し、正確で包括的で反射的なレキシコンを共同開発する。
本稿は、言語改革がガバナンスの周辺ではなく、透明で公平で予測可能な規制枠組みの構築の中心であることを主張する。
関連論文リスト
- Generative AI as Digital Media [0.0]
生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
論文 参考訳(メタデータ) (2025-03-09T08:58:17Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - The Language Labyrinth: Constructive Critique on the Terminology Used in
the AI Discourse [0.0]
この論文は、AIの議論は依然として「学習」、「学習」、「決定」といったメタファーに批判的な距離が欠如していることが特徴であると主張している。
その結果、責任や潜在的なユースケースに関するリフレクションが大幅に歪められる。
これは重要なコンピュータ科学と言語哲学の交わりにおける概念的な研究である。
論文 参考訳(メタデータ) (2023-07-18T14:32:21Z) - Natural Language Decompositions of Implicit Content Enable Better Text Representations [52.992875653864076]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Artificial Intelligence and Structural Injustice: Foundations for
Equity, Values, and Responsibility [0.0]
この章では、AIのガバナンスに対する構造上の不正なアプローチを論じている。
分析的構成要素は、社会科学でよく知られる構造的説明から成り立っている。
評価要素は正義の理論である。
論文 参考訳(メタデータ) (2022-05-05T01:21:47Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。