論文の概要: J4CC, A Frame for Communication Control
- arxiv url: http://arxiv.org/abs/2508.00485v1
- Date: Fri, 01 Aug 2025 10:01:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.828083
- Title: J4CC, A Frame for Communication Control
- Title(参考訳): J4CC - 通信制御のためのフレーム
- Authors: Aernout Schmidt, Kunbei Zhang,
- Abstract要約: 我々は,4つの力(力,資本,道徳,知識)がルール作成にどのように影響するかをマッピングする枠組みであるJ4CCを提案する。
J4CCはルール作成会話を分析するための用語を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Politics increasingly faces conflicts that appear irreconcilable, where one party's requirements directly contradict those of another. We propose J4CC, a frame for mapping how four forces (Power, Capital, Morality, and Knowledge) influence rule-making. J4CC provides a jargon for analyzing rule-making conversations. Beyond ideas about framing (Lakoff 2004; Rein & Sch\"on, 1996), it draws on ideas from legal theory (Fuller 1967), institutional economics (Coase 1937), anthropology (Douglas 1992), and AI (Lewis et al. 2020). While our ultimate goal is to develop a working and usable AI language model (actually a 'jargon model'), this article focuses for now on its conceptual foundation. We demonstrate J4CC's analytical power through three case studies that profile seemingly incompatible positions. First, of influential thinkers (Confucius, Friedman, Montesquieu, Popper, Goodfellow) and their environments. Then, of governance dynamics (in the US during the first 5 months of 2025). Finally, of two contrasting interpretations thereof (Klein-Taylor's (2025) "end of time fascism" versus Bobbitt's (2025) "constitutional degradation"). The studies confirm that J4CC can profile positions from incompatible governance philosophies without clogging communication channels, sometimes also by providing translation mechanisms. Rather than eliminating disagreements, the framework enables productive engagement by making explicit the underlying tensions that lead to institutional conflicts. Our case studies lead to the conclusion that J4CC in its current form is a usable instrument for analyzing failing political debate. We add in the appendix our position on the feasibility that the J4CC framework can develop its intended jargon through application in an AI language model trained on large numbers of negotiation records.
- Abstract(参考訳): 政治は、ある政党の要求が他の政党の要求と直接矛盾しているような矛盾に直面している。
我々は,4つの力(力,資本,道徳,知識)がルール作成にどのように影響するかをマッピングする枠組みであるJ4CCを提案する。
J4CCはルール作成会話を分析するための用語を提供する。
フレーミングに関するアイデア(Lakoff 2004; Rein & Sch\"on, 1996)以外にも、法理論(Fuller 1967)、制度経済学(Coase 1937)、人類学(Douglas 1992)、AI(Lewis et al 2020)のアイデアを参考にしています。私たちの究極のゴールは、動作可能なAI言語モデル(実際には"jargon model")を開発することですが、現時点では、その概念的基盤に焦点を当てています。この記事では、互換性のない3つのケーススタディを通じて、J4CCの分析力を示します。まず、影響力のある思想家(Confucius, Friedman, Montesquieu, Popper, Goodfellow)とその環境について、その2つの解釈(20月前半の米国における)、そして2つの解釈(20月前半の米国における)、その2つのコントラスト(2025ビットのファシズム)について説明します。
これらの研究は、J4CCがコミュニケーションチャネルを閉鎖することなく、時には翻訳メカニズムを提供することで、不整合性ガバナンス哲学から位置を特定できることを確認した。
この枠組みは、不一致を排除するのではなく、制度的な紛争につながる根底にある緊張関係を明確にすることで、生産的な関与を可能にする。
今回のケーススタディは、J4CCの現在の形態は、政治的議論の失敗を分析するための有用な手段である、という結論に導かれる。
我々は、多数の交渉記録に基づいて訓練されたAI言語モデルに適用することで、J4CCフレームワークが目的のjargonを開発できる可能性について、我々の見解を付け加える。
関連論文リスト
- Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - "Amazing, They All Lean Left" -- Analyzing the Political Temperaments of Current LLMs [5.754220850145368]
私たちはリベラルな価値、特に注意と公平性の強い一貫性のある優先順位付けを、ほとんどのモデルで見つけています。
この「自由の傾き」はプログラミングの誤りではなく、民主的権利に焦点を当てた言論に関するトレーニングの創発的な特性であると主張する。
民主的な言説を損なうのではなく、このパターンは、集合的推論を調べるための新しいレンズを提供するかもしれない。
論文 参考訳(メタデータ) (2025-07-08T21:19:25Z) - Building Trustworthy AI by Addressing its 16+2 Desiderata with Goal-Directed Commonsense Reasoning [1.1584245758108584]
サブシンボリック機械学習アルゴリズムは推論をシミュレートするが幻覚を与える。
ルールベースの推論者は、推論ステップの連鎖を提供することができるが、複雑であり、多数の推論を使用する。
本稿では,目標指向の制約ベースの応答セットプログラミング推論器 s(CASP) を提案する。
論文 参考訳(メタデータ) (2025-06-15T00:09:12Z) - Political Neutrality in AI Is Impossible- But Here Is How to Approximate It [97.59456676216115]
真の政治的中立性は、主観的な性質と、AIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的に望ましいものではない、と我々は主張する。
我々は、政治的中立性の「近似」という用語を使って、到達不可能な絶対値から達成不可能で実用的なプロキシへ焦点を移す。
論文 参考訳(メタデータ) (2025-02-18T16:48:04Z) - Causal Claims in Economics [0.0]
1980年から2023年までの44,000件以上のNBERおよびCEPR作業論文を,知識グラフ構築のためのカスタム言語モデルを用いて分析した。
我々は、1990年の約4%から2020年の約28%まで、因果関係の主張のシェアが大幅に上昇したことを報告している。
因果的物語の複雑さは、上位5誌の出版と上位引用数の両方を強く予測するのに対し、非因果的複雑性はこれらの結果と非相関性または負の相関性を持つ傾向にある。
論文 参考訳(メタデータ) (2025-01-12T17:03:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - AI Ethics and Ordoliberalism 2.0: Towards A 'Digital Bill of Rights' [0.0]
本稿では,AI倫理をビジネス倫理的視点,すなわち'ordoliberalism 2.0'から分析する。
AIに関する現在進行中の議論は、企業による自己規制と自発的な行動規範に依存しすぎている、と氏は主張する。
論文は、既存のAIガイドラインと、オードリベラルにインスパイアされた規制および競争ポリシーを統合することを示唆している。
論文 参考訳(メタデータ) (2023-10-27T10:26:12Z) - Normative Conditional Reasoning as a Fragment of HOL [0.0]
本稿では(参照に基づく)条件付き規範推論の機械化について論じる。
我々の焦点は条件付き義務のためのAqvistのシステムEとその拡張である。
フレームワークの2つの可能性について検討する。
論文 参考訳(メタデータ) (2023-08-21T12:47:30Z) - Causal Inference Principles for Reasoning about Commonsense Causality [93.19149325083968]
コモンセンス因果推論(Commonsense causality reasoning)は、平均的な人によって妥当と見なされる自然言語記述における妥当な原因と影響を特定することを目的としている。
既存の作業は通常、深い言語モデルに全面的に依存しており、共起を混同する可能性がある。
古典的因果原理に触発され,我々はCCRの中心的問題を明確にし,観察研究と自然言語における人間の対象間の類似性を引き出す。
本稿では,時間信号をインシデント・インシデント・インシデント・インシデント・インシデントとして活用する新しいフレームワークであるROCKをReason O(A)bout Commonsense K(C)ausalityに提案する。
論文 参考訳(メタデータ) (2022-01-31T06:12:39Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。