論文の概要: Models we Can Trust: Toward a Systematic Discipline of (Agent-Based)
Model Interpretation and Validation
- arxiv url: http://arxiv.org/abs/2102.11615v1
- Date: Tue, 23 Feb 2021 10:52:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:51:21.777904
- Title: Models we Can Trust: Toward a Systematic Discipline of (Agent-Based)
Model Interpretation and Validation
- Title(参考訳): 信頼できるモデル:(エージェントベース)モデルの解釈と検証の体系的規律に向けて
- Authors: Gabriel Istrate
- Abstract要約: 我々は、モデルから情報を取り出すための相互作用の分野の開発を提唱する。
このような分野の発展に向けたいくつかの方向性を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We advocate the development of a discipline of interacting with and
extracting information from models, both mathematical (e.g. game-theoretic
ones) and computational (e.g. agent-based models). We outline some directions
for the development of a such a discipline:
- the development of logical frameworks for the systematic formal
specification of stylized facts and social mechanisms in (mathematical and
computational) social science. Such frameworks would bring to attention new
issues, such as phase transitions, i.e. dramatical changes in the validity of
the stylized facts beyond some critical values in parameter space. We argue
that such statements are useful for those logical frameworks describing
properties of ABM.
- the adaptation of tools from the theory of reactive systems (such as
bisimulation) to obtain practically relevant notions of two systems "having the
same behavior".
- the systematic development of an adversarial theory of model perturbations,
that investigates the robustness of conclusions derived from models of social
behavior to variations in several features of the social dynamics. These may
include: activation order, the underlying social network, individual agent
behavior.
- Abstract(参考訳): 我々は、モデルから情報を取り出す、相互作用する分野の開発を提唱する(例えば、数学)。
ゲーム理論)と計算(例えば、計算)
エージェントベースモデル)。
我々は,そのような分野の発展に向けたいくつかの方向性を概説する:―(数学的・計算的な)社会科学における,形式化された事実と社会メカニズムの体系的な形式的仕様のための論理的枠組みの開発。
このようなフレームワークは、フェーズ遷移、すなわち、新たな問題に注目を集めるだろう。
パラメータ空間のいくつかの重要な値を超える様式化された事実の妥当性の劇的な変化。
このような記述は ABM の性質を記述する論理フレームワークにとって有用であると主張します。
-「同じ行動を持つ」2つのシステムの事実上関連する概念を得るために、反応系の理論(二相計算など)からのツールの適応。
-社会的行動のモデルから社会的ダイナミクスのいくつかの特徴の変動への結論の堅牢性を調べるモデル摂動の逆転理論の体系的な発展。
これには、アクティベーション順序、基礎となるソーシャルネットワーク、個々のエージェントの振る舞いが含まれる。
関連論文リスト
- Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Multi-Agent Verification and Control with Probabilistic Model Checking [4.56877715768796]
確率的モデルチェック(probabilistic model check)は、ソフトウェアやハードウェアシステムに関する公式な自動推論手法である。
論理学、オートマトン、グラフ理論から最適化、数値法、制御に至るまで、様々な分野のアイデアと技術に基づいて構築される。
近年ではゲーム理論のアイデアを統合するために確率的モデル検査も拡張されている。
論文 参考訳(メタデータ) (2023-08-05T09:31:32Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - AI-Assisted Discovery of Quantitative and Formal Models in Social
Science [6.39651637213537]
本システムは,経済・社会学における実世界のデータから解釈可能なモデルを発見するのに有効であることを示す。
本稿では,このAI支援フレームワークが,社会科学研究でよく用いられるパラメトリックモデルと非パラメトリックモデルとを橋渡しすることができることを提案する。
論文 参考訳(メタデータ) (2022-10-02T16:25:47Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Modelling Behaviour Change using Cognitive Agent Simulations [0.0]
本稿では, シミュレーションエージェントに選択された行動変化理論を適用するために, プログレッシブ・イン・プログレッシブ・リサーチを提案する。
この研究は、不適切な状況下での自己決定的目標達成に必要な複雑なエージェントアーキテクチャに焦点を当てている。
論文 参考訳(メタデータ) (2021-10-16T19:19:08Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - COSMO: Conditional SEQ2SEQ-based Mixture Model for Zero-Shot Commonsense
Question Answering [50.65816570279115]
社会的文脈の暗黙的な原因と影響の特定は、機械が常識的推論を実行できるようにする駆動能力である。
この領域における現在のアプローチには、目に見えない状況に直面して常識推論を行う能力がない。
本稿では,動的かつ多様なコンテンツ生成機能を備えた条件付きSEQ2SEQベースの混合モデル(COSMO)を提案する。
論文 参考訳(メタデータ) (2020-11-02T07:08:19Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z) - Learning Opinion Dynamics From Social Traces [25.161493874783584]
本稿では,現実の社会的トレースに,生成的,エージェントライクな意見力学モデルを適用するための推論機構を提案する。
本稿では,古典的エージェントに基づく意見力学モデルから,その生成的モデルへの変換による提案について紹介する。
われわれのモデルをRedditの現実世界のデータに適用して、バックファイア効果の影響に関する長年にわたる疑問を探る。
論文 参考訳(メタデータ) (2020-06-02T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。