如果你也在 怎样代写计量经济学Econometrics这个学科遇到相关的难题,请随时右上角联系我们的24/7代写客服。
计量经济学,对经济关系的统计和数学分析,通常作为经济预测的基础。这种信息有时被政府用来制定经济政策,也被私人企业用来帮助价格、库存和生产方面的决策。
assignmentutor-lab™ 为您的留学生涯保驾护航 在代写计量经济学Econometrics方面已经树立了自己的口碑, 保证靠谱, 高质且原创的统计Statistics代写服务。我们的专家在代写计量经济学Econometrics代写方面经验极为丰富,各种代写计量经济学Econometrics相关的作业也就用不着说。
我们提供的计量经济学Econometrics及其相关学科的代写,服务范围广, 其中包括但不限于:
- Statistical Inference 统计推断
- Statistical Computing 统计计算
- Advanced Probability Theory 高等概率论
- Advanced Mathematical Statistics 高等数理统计学
- (Generalized) Linear Models 广义线性模型
- Statistical Machine Learning 统计机器学习
- Longitudinal Data Analysis 纵向数据分析
- Foundations of Data Science 数据科学基础

经济代写|计量经济学代写Econometrics代考|Transformations and Reparametrizations
In this and the subsequent sections of this chapter, we develop the classical theory of maximum likelihood estimation and, in particular, demonstrate the properties that make it a desirable estimation method. We will also point out that in some circumstances these properties fail. As we discussed in Section 8.1, the major desirable features of ML estimators are invariance, consistency, asymptotic normality, asymptotic efficiency, and computability. In this section, we will discuss the first of these, the invariance of ML estimators to reparametrization of the model.
The idea of invariance is an important one in econometric analysis. Let us denote by $\mathbb{M}$ the model in which we are interested. A parametrization of the model $\mathbb{M}$ is a mapping, say $\lambda$, from a parameter space $\Theta$ to $\mathbb{M}$. For any given model $\mathbb{M}$ there may in general exist an infinite number of parametrizations. There are, after all, few constraints on the parameter space $\Theta$, other than its dimensionality. A subset of $\mathbb{R}^k$ of full dimension can be mapped in a one-to-one and differentiable manner onto virtually any other subset of $\mathbb{R}^k$ of full dimension by such devices as translation, rotation, dilation, and so on, and subsequently any of these other subsets can perfectly well serve as the parameter space for the model $\mathbb{M}$. It is because of this fact that one appeals to invariance as a desirable property of estimators. “Invariance” is understood in this context as invariance under the sort of transformation we have been discussing, which we call formally reparametrization.
As an illustration of the fact that any model may be parametrized in an infinite number of ways, consider the case of the exponential distribution, which was discussed in Section 8.1. The likelihood function for a sample of independent drawings from this distribution was seen to be (8.03). If we make the definition $\theta \equiv \delta^\alpha$, we can define a whole family of parametrizations indexed by $\alpha$. We may choose $\alpha$ to be any finite, nonzero number. The likelihood function corresponding to this family of parametrizations is
$$
L(\boldsymbol{y}, \delta)=\prod_{t=1}^n \delta^\alpha e^{-\delta^\alpha y_t}
$$
Evidently, $\alpha=1$ corresponds to the $\theta$ parametrization of (8.02) and $\alpha=-1$ corresponds to the $\phi$ parametrization of (8.07).
It is easy to see that ML estimators are invariant to reparametrizations of the model. Let $\eta: \Theta \rightarrow \Phi \subseteq \mathbb{R}^k$ denote a smooth mapping that transforms the vector $\theta$ uniquely into another vector $\boldsymbol{\phi} \equiv \boldsymbol{\eta} \boldsymbol{\theta})$. The likelihood function for the model $\mathbb{M}$ in terms of the new parameters $\phi$, say $L^{\prime}$, is defined by the relation
$$
L^{\prime}(\boldsymbol{y}, \boldsymbol{\phi})=L(\boldsymbol{y}, \boldsymbol{\theta}) \quad \text { for } \boldsymbol{\phi}=\boldsymbol{\eta}(\boldsymbol{\theta}) .
$$
Equation (8.23) follows at once from the facts that a likelihood function is the density of a stochastic process and that $\boldsymbol{\theta}$ and $\boldsymbol{\phi}=\boldsymbol{\eta}(\boldsymbol{\theta})$ describe the same stochastic process. Let us define $\hat{\boldsymbol{\phi}}$ as $\boldsymbol{\eta}(\hat{\boldsymbol{\theta}})$ and $\boldsymbol{\phi}^$ as $\boldsymbol{\eta}\left(\boldsymbol{\theta}^\right)$. Then if
$$
L(\boldsymbol{y}, \hat{\boldsymbol{\theta}})>L\left(\boldsymbol{y}, \boldsymbol{\theta}^\right) \text { for all } \boldsymbol{\theta}^ \neq \hat{\boldsymbol{\theta}},
$$
it follows that
$$
L^{\prime}(\boldsymbol{y}, \hat{\boldsymbol{\phi}})=L^{\prime}(\boldsymbol{y}, \boldsymbol{\eta}(\hat{\boldsymbol{\theta}}))=L(\boldsymbol{y}, \hat{\boldsymbol{\theta}})>L\left(\boldsymbol{y}, \boldsymbol{\theta}^\right)=L^{\prime}\left(\boldsymbol{y}, \boldsymbol{\phi}^\right) \text { for all } \boldsymbol{\phi}^* \neq \hat{\boldsymbol{\phi}}
$$
经济代写|计量经济学代写Econometrics代考|Asymptotic Efficiency of the ML Estimator
In this section, we will demonstrate the asymptotic efficiency of the ML estimator or, strictly speaking, of the Type $2 \mathrm{ML}$ estimator. Asymptotic efficiency means that the variance of the asymptotic distribution of any consistent estimator of the model parameters differs from that of an asymptotically efficient estimator by a positive semidefinite matrix; see Definition 5.6. One says an asymptotically efficient estimator rather than the asymptotically efficient estimator because, since the property of asymptotic efficiency is a property only of the asymptotic distribution, there can (and do) exist many estimators that differ in finite samples but have the same, efficient, asymptotic distribution. An example can be taken from the nonlinear regression model, in which, as we will see in Section 8.10, NLS is equivalent to ML estimation if we assume normality of the error terms. As we saw in Section 6.6, there are nonlinear models that are just linear models with some nonlinear restrictions imposed on them. In such cases, one-step estimation starting from the estimates of the linear model was seen to be asymptotically equivalent to NLS, and hence asymptotically efficient. One-step estimation is possible in the general maximum likelihood context as well and can often provide an efficient estimator that is easier to compute than the ML estimator itself.
We will begin our proof of the asymptotic efficiency of the ML estimator by a discussion applicable to any root- $n$ consistent and asymptotically unbiased estimator of the parameters of the model represented by the loglikelihood function $\ell(\boldsymbol{y}, \boldsymbol{\theta})$. Note that consistency by itself does not imply asymptotic unbiasedness without the imposition of various regularity conditions. Since every econometrically interesting consistent estimator that we are aware of is in fact asymptotically unbiased, we will deal only with such estimators here. Let such an estimator be denoted by $\hat{\boldsymbol{\theta}}(\boldsymbol{y})$, where the notation emphasizes the fact that the estimator is a random variable, dependent on the realized sample $\boldsymbol{y}$. Note that we have changed notation here, since $\hat{\boldsymbol{\theta}}(\boldsymbol{y})$ is in general not the ML estimator. Instead, the latter will be denoted $\tilde{\boldsymbol{\theta}}(\boldsymbol{y})$; the new notation is designed to be consistent with our treatment throughout the book of restricted and unrestricted estimators, since in an important sense the ML estimator corresponds to the former and the arbitrary consistent estimator $\hat{\boldsymbol{\theta}}(\boldsymbol{y})$ corresponds to the latter.

计量经济学代考
经济代写|计量经济学代写econometrics代考| transforms -and- reparameterizations
在本章和本章的后续章节中,我们发展了极大似然估计的经典理论,并特别说明了使其成为理想估计方法的特性。我们还将指出,在某些情况下,这些属性会失败。正如我们在8.1节中所讨论的,ML估计量的主要理想特征是不变性、一致性、渐近正态性、渐近效率和可计算性。在本节中,我们将讨论其中的第一个问题,即ML估计量对模型重新参数化的不变性
不变性的概念是计量经济学分析中的一个重要概念。让我们用$\mathbb{M}$表示我们感兴趣的模型。模型$\mathbb{M}$的参数化是一个从参数空间$\Theta$到$\mathbb{M}$的映射,比如$\lambda$。对于任何给定的模型$\mathbb{M}$,通常可能存在无限数量的参数化。毕竟,除了参数空间的维数外,参数空间$\Theta$几乎没有什么约束。全维$\mathbb{R}^k$的一个子集可以通过平移、旋转、膨胀等手段以一对一可微的方式映射到$\mathbb{R}^k$的几乎任何其他全维子集上,然后这些其他子集中的任何一个都可以很好地充当模型$\mathbb{M}$的参数空间。正是因为这一事实,人们才把不变性作为估计量的理想属性。在这种情况下,“不变性”被理解为我们一直在讨论的那种转换下的不变性,我们称之为正式的再参数化
为了说明任何模型都可以用无限多的方式参数化的事实,考虑指数分布的情况,这在第8.1节中讨论过。从这个分布中独立绘图样本的似然函数可见为(8.03)。如果我们做定义 $\theta \equiv \delta^\alpha$,我们可以定义索引为的一整套参数化 $\alpha$。我们可以选择 $\alpha$ 是任何有限的非零数。对应于这个参数化族的似然函数是
$$
L(\boldsymbol{y}, \delta)=\prod_{t=1}^n \delta^\alpha e^{-\delta^\alpha y_t}
$$
显然, $\alpha=1$ 对应于 $\theta$ 参数化(8.02)和 $\alpha=-1$ 对应于 $\phi$ (8.07)的参数化。
很容易看出,ML估计量对模型的重参数化是不变的。设$\eta: \Theta \rightarrow \Phi \subseteq \mathbb{R}^k$表示一个平滑映射,它将向量$\theta$唯一地转换为另一个向量$\boldsymbol{\phi} \equiv \boldsymbol{\eta} \boldsymbol{\theta})$。根据新参数$\phi$,例如$L^{\prime}$,模型$\mathbb{M}$的似然函数由
$$
L^{\prime}(\boldsymbol{y}, \boldsymbol{\phi})=L(\boldsymbol{y}, \boldsymbol{\theta}) \quad \text { for } \boldsymbol{\phi}=\boldsymbol{\eta}(\boldsymbol{\theta}) .
$$
的关系定义,公式(8.23)从以下事实得到:似然函数是随机过程的密度,并且$\boldsymbol{\theta}$和$\boldsymbol{\phi}=\boldsymbol{\eta}(\boldsymbol{\theta})$描述了相同的随机过程。我们将$\hat{\boldsymbol{\phi}}$定义为$\boldsymbol{\eta}(\hat{\boldsymbol{\theta}})$,将$\boldsymbol{\phi}^$定义为$\boldsymbol{\eta}\left(\boldsymbol{\theta}^\right)$。然后,如果
$$
L(\boldsymbol{y}, \hat{\boldsymbol{\theta}})>L\left(\boldsymbol{y}, \boldsymbol{\theta}^\right) \text { for all } \boldsymbol{\theta}^ \neq \hat{\boldsymbol{\theta}},
$$
,则得到
$$
L^{\prime}(\boldsymbol{y}, \hat{\boldsymbol{\phi}})=L^{\prime}(\boldsymbol{y}, \boldsymbol{\eta}(\hat{\boldsymbol{\theta}}))=L(\boldsymbol{y}, \hat{\boldsymbol{\theta}})>L\left(\boldsymbol{y}, \boldsymbol{\theta}^\right)=L^{\prime}\left(\boldsymbol{y}, \boldsymbol{\phi}^\right) \text { for all } \boldsymbol{\phi}^* \neq \hat{\boldsymbol{\phi}}
$$
经济代写|计量经济学代写econometrics代考| ML估计器的渐近效率
在本节中,我们将演示ML估计器的渐近效率,或者严格地说,类型$2 \mathrm{ML}$估计器的渐近效率。渐近效率是指模型参数的任何一致估计量的渐近分布的方差与渐近有效估计量的方差相差一个正半定矩阵;参见定义5.6。有人说渐近有效估计量而不是渐近有效估计量,因为渐近效率的性质只是渐近分布的性质,所以可以(也确实)存在许多在有限样本中不同的估计量,但具有相同的,有效的渐近分布。我们可以从非线性回归模型中举一个例子,如我们将在8.10节中看到的,如果我们假设误差项的正态性,NLS就相当于ML估计。正如我们在第6.6节中所看到的,有些非线性模型只是带有一些非线性限制的线性模型。在这种情况下,从线性模型的估计开始的一步估计被认为与NLS渐近等价,因此渐近有效。在一般的极大似然上下文中,一步估计也是可能的,并且通常可以提供一个比ML估计本身更容易计算的高效估计器
我们将通过一个适用于loglikelihood函数$\ell(\boldsymbol{y}, \boldsymbol{\theta})$表示的模型参数的任何根- $n$一致渐近无偏估计量的讨论,开始证明ML估计量的渐近效率。请注意,一致性本身并不意味着没有施加各种规律性条件的渐近无偏性。因为我们所知道的每一个计量经济学上有趣的一致估计量实际上都是渐进无偏的,所以我们在这里只处理这样的估计量。让这样的估计量用$\hat{\boldsymbol{\theta}}(\boldsymbol{y})$表示,这里的表示法强调估计量是一个随机变量,依赖于实现的样本$\boldsymbol{y}$。注意,我们在这里更改了符号,因为$\hat{\boldsymbol{\theta}}(\boldsymbol{y})$通常不是ML估计器。相反,后者将表示为$\tilde{\boldsymbol{\theta}}(\boldsymbol{y})$;新的表示法被设计成与我们在全书中关于限制和不限制估计量的处理一致,因为在一个重要意义上,ML估计量对应于前者,而任意一致估计量$\hat{\boldsymbol{\theta}}(\boldsymbol{y})$对应于后者。

统计代写请认准statistics-lab™. statistics-lab™为您的留学生涯保驾护航。
金融工程代写
金融工程是使用数学技术来解决金融问题。金融工程使用计算机科学、统计学、经济学和应用数学领域的工具和知识来解决当前的金融问题,以及设计新的和创新的金融产品。
非参数统计代写
非参数统计指的是一种统计方法,其中不假设数据来自于由少数参数决定的规定模型;这种模型的例子包括正态分布模型和线性回归模型。
广义线性模型代考
广义线性模型(GLM)归属统计学领域,是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。
术语 广义线性模型(GLM)通常是指给定连续和/或分类预测因素的连续响应变量的常规线性回归模型。它包括多元线性回归,以及方差分析和方差分析(仅含固定效应)。
有限元方法代写
有限元方法(FEM)是一种流行的方法,用于数值解决工程和数学建模中出现的微分方程。典型的问题领域包括结构分析、传热、流体流动、质量运输和电磁势等传统领域。
有限元是一种通用的数值方法,用于解决两个或三个空间变量的偏微分方程(即一些边界值问题)。为了解决一个问题,有限元将一个大系统细分为更小、更简单的部分,称为有限元。这是通过在空间维度上的特定空间离散化来实现的,它是通过构建对象的网格来实现的:用于求解的数值域,它有有限数量的点。边界值问题的有限元方法表述最终导致一个代数方程组。该方法在域上对未知函数进行逼近。[1] 然后将模拟这些有限元的简单方程组合成一个更大的方程系统,以模拟整个问题。然后,有限元通过变化微积分使相关的误差函数最小化来逼近一个解决方案。
assignmentutor™作为专业的留学生服务机构,多年来已为美国、英国、加拿大、澳洲等留学热门地的学生提供专业的学术服务,包括但不限于Essay代写,Assignment代写,Dissertation代写,Report代写,小组作业代写,Proposal代写,Paper代写,Presentation代写,计算机作业代写,论文修改和润色,网课代做,exam代考等等。写作范围涵盖高中,本科,研究生等海外留学全阶段,辐射金融,经济学,会计学,审计学,管理学等全球99%专业科目。写作团队既有专业英语母语作者,也有海外名校硕博留学生,每位写作老师都拥有过硬的语言能力,专业的学科背景和学术写作经验。我们承诺100%原创,100%专业,100%准时,100%满意。
随机分析代写
随机微积分是数学的一个分支,对随机过程进行操作。它允许为随机过程的积分定义一个关于随机过程的一致的积分理论。这个领域是由日本数学家伊藤清在第二次世界大战期间创建并开始的。
时间序列分析代写
随机过程,是依赖于参数的一组随机变量的全体,参数通常是时间。 随机变量是随机现象的数量表现,其时间序列是一组按照时间发生先后顺序进行排列的数据点序列。通常一组时间序列的时间间隔为一恒定值(如1秒,5分钟,12小时,7天,1年),因此时间序列可以作为离散时间数据进行分析处理。研究时间序列数据的意义在于现实中,往往需要研究某个事物其随时间发展变化的规律。这就需要通过研究该事物过去发展的历史记录,以得到其自身发展的规律。
回归分析代写
多元回归分析渐进(Multiple Regression Analysis Asymptotics)属于计量经济学领域,主要是一种数学上的统计分析方法,可以分析复杂情况下各影响因素的数学关系,在自然科学、社会和经济学等多个领域内应用广泛。
MATLAB代写
MATLAB 是一种用于技术计算的高性能语言。它将计算、可视化和编程集成在一个易于使用的环境中,其中问题和解决方案以熟悉的数学符号表示。典型用途包括:数学和计算算法开发建模、仿真和原型制作数据分析、探索和可视化科学和工程图形应用程序开发,包括图形用户界面构建MATLAB 是一个交互式系统,其基本数据元素是一个不需要维度的数组。这使您可以解决许多技术计算问题,尤其是那些具有矩阵和向量公式的问题,而只需用 C 或 Fortran 等标量非交互式语言编写程序所需的时间的一小部分。MATLAB 名称代表矩阵实验室。MATLAB 最初的编写目的是提供对由 LINPACK 和 EISPACK 项目开发的矩阵软件的轻松访问,这两个项目共同代表了矩阵计算软件的最新技术。MATLAB 经过多年的发展,得到了许多用户的投入。在大学环境中,它是数学、工程和科学入门和高级课程的标准教学工具。在工业领域,MATLAB 是高效研究、开发和分析的首选工具。MATLAB 具有一系列称为工具箱的特定于应用程序的解决方案。对于大多数 MATLAB 用户来说非常重要,工具箱允许您学习和应用专业技术。工具箱是 MATLAB 函数(M 文件)的综合集合,可扩展 MATLAB 环境以解决特定类别的问题。可用工具箱的领域包括信号处理、控制系统、神经网络、模糊逻辑、小波、仿真等。
R语言代写 | 问卷设计与分析代写 |
PYTHON代写 | 回归分析与线性模型代写 |
MATLAB代写 | 方差分析与试验设计代写 |
STATA代写 | 机器学习/统计学习代写 |
SPSS代写 | 计量经济学代写 |
EVIEWS代写 | 时间序列分析代写 |
EXCEL代写 | 深度学习代写 |
SQL代写 | 各种数据建模与可视化代写 |