論文の概要: A Frame for Communication Control
- arxiv url: http://arxiv.org/abs/2508.00485v2
- Date: Mon, 11 Aug 2025 15:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.393892
- Title: A Frame for Communication Control
- Title(参考訳): 通信制御のためのフレーム
- Authors: Aernout Schmidt, Kunbei Zhang,
- Abstract要約: ガバナンス,経済,コミュニティ,科学の4つの専門言語を統合する枠組みが,これらの失敗に対処可能であることを示す。
我々は,このフレームがRAG-LLMアーキテクチャの設計および適用に関する知識を提供し,そのジャーゴン発生の可能性について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are experiencing the rise of ChatGPT-like systems or LLMs in political turbulent times. We assume the need to regulate their use because of their bubble-shaping and polarizing potential. To regulate, we need a language that allows interests and compromises to be discussed. In this context, we can think of such a shared language as a jargon, a specialized vocabulary for law-making. To the extent that such a jargon exists, it is now being corrupted by LLMs. This situation appears paradoxical. The issue includes persistent communication failures, between disciplines that cannot translate their technical vocabulary into accessible terms, and between political movements that operate in incompatible worldviews. We show that a frame integrating four specialist languages, those of governance, economy, community and science, is able to address these failures case-wise, which we consider helpful. However, for reasons noted, we cannot create the more generic jargon needed on our own. We conclude that our frame provides the knowledge to design and apply RAG-LLM architectures for researching their jargon generating potential in a future project. We show its feasibility in the appendix.
- Abstract(参考訳): 政治の混乱期には、ChatGPTのようなシステムやLLMが台頭しています。
バブル形成と分極ポテンシャルのために使用を規制する必要があると仮定する。
規制するためには、関心と妥協を議論できる言語が必要です。
この文脈では、そのような共有言語を、法律作成のための特別な語彙であるジャーゴンとみなすことができる。
そのようなジャーゴンが存在する程度に、現在ではLSMによって破壊されている。
この状況はパラドックス的に見える。
この問題には、永続的なコミュニケーションの失敗、技術的語彙をアクセシブルな言葉に翻訳できない規律と、互換性のない世界観で活動する政治運動の間のコミュニケーションの失敗が含まれる。
我々は、ガバナンス、経済、コミュニティ、科学の4つの専門言語を統合する枠組みが、これらの失敗にケースワイズで対処できることを示す。
しかし、注意すべき理由から、自分たちで必要なより汎用的なjargonを作成することはできない。
今後のプロジェクトにおいて,本フレームワークはRAG-LLMアーキテクチャの設計と適用に関する知識を提供し,そのジャーゴン発生の可能性について検討する。
虫垂にその可能性を示す。
関連論文リスト
- Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - "Amazing, They All Lean Left" -- Analyzing the Political Temperaments of Current LLMs [5.754220850145368]
私たちはリベラルな価値、特に注意と公平性の強い一貫性のある優先順位付けを、ほとんどのモデルで見つけています。
この「自由の傾き」はプログラミングの誤りではなく、民主的権利に焦点を当てた言論に関するトレーニングの創発的な特性であると主張する。
民主的な言説を損なうのではなく、このパターンは、集合的推論を調べるための新しいレンズを提供するかもしれない。
論文 参考訳(メタデータ) (2025-07-08T21:19:25Z) - On the Semantics of Large Language Models [0.0]
大規模言語モデル(LLM)は、技術を通して人間の言語能力を再現する可能性を実証した。
これらのシステムが言語をどの程度理解しているかについては議論の余地がある。
質問を単語と文のレベルで LLM の意味論に絞り込むことで,この問題を考察する。
論文 参考訳(メタデータ) (2025-07-07T20:02:57Z) - Building Trustworthy AI by Addressing its 16+2 Desiderata with Goal-Directed Commonsense Reasoning [1.1584245758108584]
サブシンボリック機械学習アルゴリズムは推論をシミュレートするが幻覚を与える。
ルールベースの推論者は、推論ステップの連鎖を提供することができるが、複雑であり、多数の推論を使用する。
本稿では,目標指向の制約ベースの応答セットプログラミング推論器 s(CASP) を提案する。
論文 参考訳(メタデータ) (2025-06-15T00:09:12Z) - Talking Point based Ideological Discourse Analysis in News Events [62.18747509565779]
本稿では,イデオロギー的談話分析理論をモチベーションとして,実世界の出来事に関するニュース記事を分析する枠組みを提案する。
我々のフレームワークは,話題のトピックとともに,エンティティ,役割,メディアフレーム間の相互作用を捉えた,会話ポイントという関係構造を用いたニュース記事を表現している。
我々は,人間の検証によって補足されたイデオロギーや分派的分類タスクを通じて,これらの視点を自動で生成するフレームワークの能力を評価する。
論文 参考訳(メタデータ) (2025-04-10T02:52:34Z) - Political Neutrality in AI Is Impossible- But Here Is How to Approximate It [97.59456676216115]
真の政治的中立性は、主観的な性質と、AIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的に望ましいものではない、と我々は主張する。
我々は、政治的中立性の「近似」という用語を使って、到達不可能な絶対値から達成不可能で実用的なプロキシへ焦点を移す。
論文 参考訳(メタデータ) (2025-02-18T16:48:04Z) - Causal Claims in Economics [0.0]
1980年から2023年までの44,000件以上のNBERおよびCEPR作業論文を,知識グラフ構築のためのカスタム言語モデルを用いて分析した。
我々は、1990年の約4%から2020年の約28%まで、因果関係の主張のシェアが大幅に上昇したことを報告している。
因果的物語の複雑さは、上位5誌の出版と上位引用数の両方を強く予測するのに対し、非因果的複雑性はこれらの結果と非相関性または負の相関性を持つ傾向にある。
論文 参考訳(メタデータ) (2025-01-12T17:03:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Reinterpreting 'the Company a Word Keeps': Towards Explainable and Ontologically Grounded Language Models [0.0]
我々は,大言語モデル(LLM)の相対的な成功は,記号的対準記号的議論の反映ではないと主張している。
我々は,LLMで採用されたのと同じボトムアップ戦略を,シンボリック・セッティングで採用することを提案する。
論文 参考訳(メタデータ) (2024-06-06T20:38:35Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Steering Language Models with Game-Theoretic Solvers [43.023261136434876]
大規模言語モデル(LLM)によって生成される自然言語対話の空間上で平衡解法が機能するフレームワークを導入する。
具体的には、対話の「ゲーム」におけるプレイヤー、戦略、ペイオフをモデル化することにより、自然言語の相互作用から従来のゲーム理論の記号論理への結合を生成する。
我々は,会議のスケジューリング,果物の取引,討論など,異なる交渉戦略を必要とする3つの領域に注目し,解決者によって指導されたLLMの言語を評価する。
論文 参考訳(メタデータ) (2024-01-24T22:22:00Z) - Sibyl: Empowering Empathetic Dialogue Generation in Large Language Models via Sensible and Visionary Commonsense Inference [40.96005200292604]
感性とビジョンコモンセンス知識(Sibyl)という革新的な枠組みを提示する。
それは、より共感的な反応を引き出すことを目的として、すぐに続く対話に集中するように設計されている。
実験結果から,LLMにコモンセンス知識を習得するためのパラダイムを取り入れることで,その応答の質を総合的に向上することが示された。
論文 参考訳(メタデータ) (2023-11-26T14:35:23Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Task-Agnostic Low-Rank Adapters for Unseen English Dialects [52.88554155235167]
LLM(Large Language Models)は、標準アメリカ英語を好んで不均等に重み付けされたコーパスで訓練される。
HyperLoRAは、方言特化情報と方言横断情報を混同することにより、タスクに依存しない方法で未確認の方言への一般化を改善する。
論文 参考訳(メタデータ) (2023-11-02T01:17:29Z) - AI Ethics and Ordoliberalism 2.0: Towards A 'Digital Bill of Rights' [0.0]
本稿では,AI倫理をビジネス倫理的視点,すなわち'ordoliberalism 2.0'から分析する。
AIに関する現在進行中の議論は、企業による自己規制と自発的な行動規範に依存しすぎている、と氏は主張する。
論文は、既存のAIガイドラインと、オードリベラルにインスパイアされた規制および競争ポリシーを統合することを示唆している。
論文 参考訳(メタデータ) (2023-10-27T10:26:12Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Normative Conditional Reasoning as a Fragment of HOL [0.0]
本稿では(参照に基づく)条件付き規範推論の機械化について論じる。
我々の焦点は条件付き義務のためのAqvistのシステムEとその拡張である。
フレームワークの2つの可能性について検討する。
論文 参考訳(メタデータ) (2023-08-21T12:47:30Z) - Knowledge Authoring with Factual English [0.0]
知識表現と推論(KRR)システムは知識を事実と規則の集合として表現する。
一つの解決策は英語の文章から知識を抽出することであり、多くの研究がそれを試みている。
残念なことに、制限されていない自然言語から論理的事実を抽出するのは、推論に使用するには不正確すぎる。
近年のCNLベースのアプローチであるKnowledge Authoring Logic Machine(KALM)は,他と比較して非常に精度が高いことが示されている。
論文 参考訳(メタデータ) (2022-08-05T10:49:41Z) - Causal Inference Principles for Reasoning about Commonsense Causality [93.19149325083968]
コモンセンス因果推論(Commonsense causality reasoning)は、平均的な人によって妥当と見なされる自然言語記述における妥当な原因と影響を特定することを目的としている。
既存の作業は通常、深い言語モデルに全面的に依存しており、共起を混同する可能性がある。
古典的因果原理に触発され,我々はCCRの中心的問題を明確にし,観察研究と自然言語における人間の対象間の類似性を引き出す。
本稿では,時間信号をインシデント・インシデント・インシデント・インシデント・インシデントとして活用する新しいフレームワークであるROCKをReason O(A)bout Commonsense K(C)ausalityに提案する。
論文 参考訳(メタデータ) (2022-01-31T06:12:39Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - Emergence of Pragmatics from Referential Game between Theory of Mind
Agents [64.25696237463397]
エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-21T19:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。