論文の概要: A Frame for Communication Control
- arxiv url: http://arxiv.org/abs/2508.00485v2
- Date: Mon, 11 Aug 2025 15:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.393892
- Title: A Frame for Communication Control
- Title(参考訳): 通信制御のためのフレーム
- Authors: Aernout Schmidt, Kunbei Zhang,
- Abstract要約: ガバナンス,経済,コミュニティ,科学の4つの専門言語を統合する枠組みが,これらの失敗に対処可能であることを示す。
我々は,このフレームがRAG-LLMアーキテクチャの設計および適用に関する知識を提供し,そのジャーゴン発生の可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are experiencing the rise of ChatGPT-like systems or LLMs in political turbulent times. We assume the need to regulate their use because of their bubble-shaping and polarizing potential. To regulate, we need a language that allows interests and compromises to be discussed. In this context, we can think of such a shared language as a jargon, a specialized vocabulary for law-making. To the extent that such a jargon exists, it is now being corrupted by LLMs. This situation appears paradoxical. The issue includes persistent communication failures, between disciplines that cannot translate their technical vocabulary into accessible terms, and between political movements that operate in incompatible worldviews. We show that a frame integrating four specialist languages, those of governance, economy, community and science, is able to address these failures case-wise, which we consider helpful. However, for reasons noted, we cannot create the more generic jargon needed on our own. We conclude that our frame provides the knowledge to design and apply RAG-LLM architectures for researching their jargon generating potential in a future project. We show its feasibility in the appendix.
- Abstract(参考訳): 政治の混乱期には、ChatGPTのようなシステムやLLMが台頭しています。
バブル形成と分極ポテンシャルのために使用を規制する必要があると仮定する。
規制するためには、関心と妥協を議論できる言語が必要です。
この文脈では、そのような共有言語を、法律作成のための特別な語彙であるジャーゴンとみなすことができる。
そのようなジャーゴンが存在する程度に、現在ではLSMによって破壊されている。
この状況はパラドックス的に見える。
この問題には、永続的なコミュニケーションの失敗、技術的語彙をアクセシブルな言葉に翻訳できない規律と、互換性のない世界観で活動する政治運動の間のコミュニケーションの失敗が含まれる。
我々は、ガバナンス、経済、コミュニティ、科学の4つの専門言語を統合する枠組みが、これらの失敗にケースワイズで対処できることを示す。
しかし、注意すべき理由から、自分たちで必要なより汎用的なjargonを作成することはできない。
今後のプロジェクトにおいて,本フレームワークはRAG-LLMアーキテクチャの設計と適用に関する知識を提供し,そのジャーゴン発生の可能性について検討する。
虫垂にその可能性を示す。
関連論文リスト
- Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - "Amazing, They All Lean Left" -- Analyzing the Political Temperaments of Current LLMs [5.754220850145368]
私たちはリベラルな価値、特に注意と公平性の強い一貫性のある優先順位付けを、ほとんどのモデルで見つけています。
この「自由の傾き」はプログラミングの誤りではなく、民主的権利に焦点を当てた言論に関するトレーニングの創発的な特性であると主張する。
民主的な言説を損なうのではなく、このパターンは、集合的推論を調べるための新しいレンズを提供するかもしれない。
論文 参考訳(メタデータ) (2025-07-08T21:19:25Z) - Building Trustworthy AI by Addressing its 16+2 Desiderata with Goal-Directed Commonsense Reasoning [1.1584245758108584]
サブシンボリック機械学習アルゴリズムは推論をシミュレートするが幻覚を与える。
ルールベースの推論者は、推論ステップの連鎖を提供することができるが、複雑であり、多数の推論を使用する。
本稿では,目標指向の制約ベースの応答セットプログラミング推論器 s(CASP) を提案する。
論文 参考訳(メタデータ) (2025-06-15T00:09:12Z) - Political Neutrality in AI Is Impossible- But Here Is How to Approximate It [97.59456676216115]
真の政治的中立性は、主観的な性質と、AIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的に望ましいものではない、と我々は主張する。
我々は、政治的中立性の「近似」という用語を使って、到達不可能な絶対値から達成不可能で実用的なプロキシへ焦点を移す。
論文 参考訳(メタデータ) (2025-02-18T16:48:04Z) - Causal Claims in Economics [0.0]
1980年から2023年までの44,000件以上のNBERおよびCEPR作業論文を,知識グラフ構築のためのカスタム言語モデルを用いて分析した。
我々は、1990年の約4%から2020年の約28%まで、因果関係の主張のシェアが大幅に上昇したことを報告している。
因果的物語の複雑さは、上位5誌の出版と上位引用数の両方を強く予測するのに対し、非因果的複雑性はこれらの結果と非相関性または負の相関性を持つ傾向にある。
論文 参考訳(メタデータ) (2025-01-12T17:03:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - AI Ethics and Ordoliberalism 2.0: Towards A 'Digital Bill of Rights' [0.0]
本稿では,AI倫理をビジネス倫理的視点,すなわち'ordoliberalism 2.0'から分析する。
AIに関する現在進行中の議論は、企業による自己規制と自発的な行動規範に依存しすぎている、と氏は主張する。
論文は、既存のAIガイドラインと、オードリベラルにインスパイアされた規制および競争ポリシーを統合することを示唆している。
論文 参考訳(メタデータ) (2023-10-27T10:26:12Z) - Normative Conditional Reasoning as a Fragment of HOL [0.0]
本稿では(参照に基づく)条件付き規範推論の機械化について論じる。
我々の焦点は条件付き義務のためのAqvistのシステムEとその拡張である。
フレームワークの2つの可能性について検討する。
論文 参考訳(メタデータ) (2023-08-21T12:47:30Z) - Causal Inference Principles for Reasoning about Commonsense Causality [93.19149325083968]
コモンセンス因果推論(Commonsense causality reasoning)は、平均的な人によって妥当と見なされる自然言語記述における妥当な原因と影響を特定することを目的としている。
既存の作業は通常、深い言語モデルに全面的に依存しており、共起を混同する可能性がある。
古典的因果原理に触発され,我々はCCRの中心的問題を明確にし,観察研究と自然言語における人間の対象間の類似性を引き出す。
本稿では,時間信号をインシデント・インシデント・インシデント・インシデント・インシデントとして活用する新しいフレームワークであるROCKをReason O(A)bout Commonsense K(C)ausalityに提案する。
論文 参考訳(メタデータ) (2022-01-31T06:12:39Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。