論文の概要: Extending the Hegselmann-Krause Model of Opinion Dynamics to include AI Oracles
- arxiv url: http://arxiv.org/abs/2502.19701v1
- Date: Thu, 27 Feb 2025 02:37:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:59:24.086967
- Title: Extending the Hegselmann-Krause Model of Opinion Dynamics to include AI Oracles
- Title(参考訳): AI Oracleを含む Hegselmann-Krause Model of Opinion Dynamics の拡張
- Authors: Allen G. Rodrigo,
- Abstract要約: Hegselmann-Krauseモデル(HK)は、コミュニティにおける個人の意見が時間とともにどのように変化するかを記述する。
私はシンプルなHKモデルを拡張して、コミュニティのメンバーの意見を平均化するAI(Artificially Intelligent)Oracleを導入します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Hegselmann-Krause (HK) model of opinion dynamics describes how opinions held by individuals in a community change over time in response to the opinions of others and their access to the true value, T, to which these opinions relate. Here, I extend the simple HK model to incorporate an Artificially Intelligent (AI) Oracle that averages the opinions of members of the community. Agent-based simulations show that (1) if individuals only have access to the Oracle (and not T), and incorporate the Oracle's opinion as they update their opinions, then all opinions will converge on a common value; (2) in contrast, if all individuals also have access to T, then all opinions will ultimately converge to T, but the presence of an Oracle may delay the time to convergence; (3) if only some individuals have access to T, opinions may not converge to T, but under certain conditions, universal access to the Oracle will guarantee convergence to T; and (4) whether or not the Oracle only accesses the opinions of individuals who have access to T, or whether it accesses the opinions of everyone in the community, makes no marked difference to the extent to which the average opinion differs from T.
- Abstract(参考訳): Hegselmann-Krause (HK) Model of opinion dynamics(英語版) は、他者の意見やこれらの意見に関連する真の価値へのアクセスに応じて、コミュニティ内の個人が持つ意見が時間とともにどのように変化するかを記述する。
ここでは、シンプルなHKモデルを拡張して、コミュニティのメンバーの意見を平均化するAI(Artificially Intelligent)Oracleを導入します。
エージェントベースのシミュレーションは、(1)個人がOracleへのアクセスしか持っていない場合(Tではない)、Oracleの意見を更新するとき、すべての意見が共通の価値に収束することを示している; 2) 対照的に、すべての個人がTにアクセスできるなら、すべての意見は最終的にTに収束するが、Oracleの存在は最終的にTに収束する。
関連論文リスト
- OmnixR: Evaluating Omni-modality Language Models on Reasoning across Modalities [124.05360767047539]
我々は、SoTA Omni-modality Language Modelsをベンチマークするために設計された評価スイートであるOmnixRを紹介する。
OLMはテキスト、ビジョン、オーディオなどの複数のモードを統合し、ユニークな課題を提示する。
実験の結果,OmnixR問題に対処するためには,複数のモダリティからの情報を統合する必要があることがわかった。
論文 参考訳(メタデータ) (2024-10-16T04:29:46Z) - It is Time to Develop an Auditing Framework to Promote Value Aware Chatbots [3.539967259383779]
我々は、この技術の進歩のスピードは、価値に基づく監査フレームワークを動員し、開発する必要があると論じる。
GPT 3.5 と GPT 4 からの応答は,既存の法則から導出される値と一致せず,一致しない。
この論文は、技術改善のための価値ベースの戦略を推奨して締めくくります。
論文 参考訳(メタデータ) (2024-09-03T02:15:34Z) - Beyond Preferences in AI Alignment [15.878773061188516]
我々は、AIアライメントに対する優先主義的アプローチを特徴づけ、挑戦する。
人間の価値観の濃厚なセマンティックな内容が、嗜好がどのように捉えられていないかを示す。
我々は、AIシステムは、彼らの社会的役割に適した規範的基準に適合すべきであると主張する。
論文 参考訳(メタデータ) (2024-08-30T03:14:20Z) - Robotic Control via Embodied Chain-of-Thought Reasoning [86.6680905262442]
学習したロボット制御ポリシーの鍵となる制限は、トレーニングデータの外部で一般化できないことである。
視覚言語行動モデル(VLA)に関する最近の研究は、大規模なインターネット事前学習型視覚言語モデルを使用することで、その堅牢性と一般化能力を大幅に向上させることができることを示した。
ロボットの動作を予測する前に、VLAに対して、計画、サブタスク、動作、視覚的接地機能について複数の推論を行うために、VLAに対してEmbodied Chain-of-Thought Reasoning (ECoT)を導入する。
論文 参考訳(メタデータ) (2024-07-11T17:31:01Z) - On the Principles behind Opinion Dynamics in Multi-Agent Systems of Large Language Models [2.8282906214258805]
対話型大言語モデル(LLM)の集団内における意見の進化について研究する。
我々は、他のLSMの意見とコンセンサスを求めるLLMの傾向に基づいて、意見交換を促進するバイアスを識別する。
これらのバイアスは、意見の変化に対する説得力のある理由の欠如、議論への参加意欲、割当値の配分などの影響を受けている。
論文 参考訳(メタデータ) (2024-06-18T18:37:23Z) - ACQUIRED: A Dataset for Answering Counterfactual Questions In Real-Life
Videos [53.92440577914417]
ACQUIREDは3.9Kの注釈付きビデオで構成され、幅広いイベントタイプを包含し、ファーストパーソンとサードパーソンの両方の視点を取り入れている。
各ビデオは、物理的、社会的、時間的な3つの異なる推論の次元にまたがる質問で注釈付けされている。
我々は,現在最先端の言語のみおよびマルチモーダルモデルに対して,我々のデータセットをベンチマークし,実験結果から大きな性能差が示された。
論文 参考訳(メタデータ) (2023-11-02T22:17:03Z) - Evaluating and Improving Value Judgments in AI: A Scenario-Based Study
on Large Language Models' Depiction of Social Conventions [5.457150493905063]
我々は,現代のAIサービスがユーザニーズにどのように対応しているかを評価し,さらに,大規模言語モデルによって反映された社会の描写を考察した。
本稿では,今後の機械的価値判断に応用可能な,価値調和シナリオにおける意思決定モデルを提案する。
本稿では,他の遠隔地を調査するためのツールとしてAIを利用する実践的アプローチを提唱する。
論文 参考訳(メタデータ) (2023-10-04T08:42:02Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Unsupervised Opinion Aggregation -- A Statistical Perspective [5.665646276894791]
複雑な意思決定システムは、根底にある真実が何であるかを理解するために意見に依存する。
本報告では, 基礎的真理を必要とせず, 各専門家の立場から知識を推測する統計的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-08-20T23:14:52Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。