目录
协方差
共變異數(Covariance)在概率論和統計學中用於衡量兩個變量的总体误差。而方差是协方差的一種特殊情況,即當兩個變量是相同的情況。 期望值分别为E(X).
查看 协方差矩阵和协方差
变换矩阵
变换矩阵是数学线性代数中的一个概念。 在线性代数中,线性变换能够用矩阵表示。如果T是一个把Rn映射到Rm的线性变换,且x是一个具有n个元素的列向量,那么 我们把m×n的矩阵A,称为T的变换矩阵。.
查看 协方差矩阵和变换矩阵
多元正态分布
多变量正态分布亦称为多变量高斯分布。它是单维正态分布向多维的推广。它同矩阵正态分布有紧密的联系。.
查看 协方差矩阵和多元正态分布
威廉·费勒
威廉·费勒(英语:William Feller,1907年7月1日 - 1970年1月14日),克罗地亚裔美籍数学家,20世纪最伟大的概率学家之一。.
查看 协方差矩阵和威廉·费勒
對稱矩陣
在線性代數中,對稱矩陣是一個方形矩陣,其轉置矩陣和自身相等。 對稱矩陣中的右上至左下方向元素以主對角線(左上至右下)為軸進行對稱。若將其寫作A.
查看 协方差矩阵和對稱矩陣
主成分分析
在多元统计分析中,主成分分析(Principal components analysis,PCA)是一種分析、簡化數據集的技術。主成分分析经常用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 主成分分析由卡爾·皮爾遜於1901年發明,用於分析數據及建立數理模型。其方法主要是通過對共變異數矩陣進行特征分解,以得出數據的主成分(即特征向量)與它們的權值(即特征值)。PCA是最簡單的以特征量分析多元統計分布的方法。其結果可以理解為對原數據中的方差做出解釋:哪一個方向上的數據值對方差的影響最大?換而言之,PCA提供了一種降低數據維度的有效辦法;如果分析者在原數據中除掉最小的特征值所對應的成分,那麼所得的低維度數據必定是最優化的(也即,這樣降低維度必定是失去訊息最少的方法)。主成分分析在分析複雜數據時尤為有用,比如人臉識別。 PCA是最简单的以特征量分析多元统计分布的方法。通常情况下,这种运算可以被看作是揭露数据的内部结构,从而更好的解释数据的变量的方法。如果一个多元数据集能够在一个高维数据空间坐标系中被显现出来,那么PCA就能够提供一幅比较低维度的图像,这幅图像即为在讯息最多的点上原对象的一个‘投影’。这样就可以利用少量的主成分使得数据的维度降低了。 PCA跟因子分析密切相关,并且已经有很多混合这两种分析的统计包。而真实要素分析则是假定底层结构,求得微小差异矩阵的特征向量。.
查看 协方差矩阵和主成分分析
共轭转置
矩阵A的共轭转置A^*(又称埃尔米特共轭、埃尔米特转置)定义为: 其中(\cdot)_表示矩阵i行j列上的元素,\overline表示标量的复共轭。 这一定义也可以写作: 其中A^\mathrm \,\!是矩阵A的转置,\overline\,\!表示对矩阵A中的元素取复共轭。 通常用以下记号表示矩阵A的共轭转置:.
查看 协方差矩阵和共轭转置
统计学
统计学是在資料分析的基础上,研究测定、收集、整理、归纳和分析反映數據資料,以便给出正确訊息的科學。這一门学科自17世纪中叶产生并逐步发展起来,它廣泛地應用在各門學科,從自然科学、社會科學到人文學科,甚至被用於工商業及政府的情報決策。隨著大数据(Big Data)時代來臨,統計的面貌也逐漸改變,與資訊、計算等領域密切結合,是資料科學(Data Science)中的重要主軸之一。 譬如自一組數據中,可以摘要並且描述這份數據的集中和離散情形,這個用法稱作為描述統計學。另外,觀察者以數據的形態,建立出一個用以解釋其隨機性和不確定性的數學模型,以之來推論研究中的步驟及母體,這種用法被稱做推論統計學。這兩種用法都可以被稱作為應用統計學。數理統計學则是討論背後的理論基礎的學科。.
查看 协方差矩阵和统计学
特征值和特征向量
在数学上,特别是线性代数中,对于一个给定的矩阵A,它的特征向量(eigenvector,也譯固有向量或本征向量)v 经过这个线性变换之后,得到的新向量仍然与原来的v 保持在同一條直線上,但其长度或方向也许會改变。即 \lambda為純量,即特征向量的长度在该线性变换下缩放的比例,称\lambda 为其特征值(本征值)。如果特徵值為正,则表示v 在经过线性变换的作用后方向也不变;如果特徵值為負,说明方向会反转;如果特征值为0,则是表示缩回零点。但无论怎样,仍在同一条直线上。图1给出了一个以著名油画《蒙娜丽莎》为题材的例子。在一定条件下(如其矩阵形式为实对称矩阵的线性变换),一个变换可以由其特征值和特征向量完全表述,也就是說:所有的特徵向量組成了這向量空間的一組基底。一个特征空间(eigenspace)是具有相同特征值的特征向量与一个同维数的零向量的集合,可以证明该集合是一个线性子空间,比如\textstyle E_\lambda.
随机变量
給定樣本空间(S, \mathbb),如果其上的實值函數 X:S \to \mathbb是\mathbb (實值)可測函數,则稱X為(實值)随机变量。初等概率論中通常不涉及到可測性的概念,而直接把任何X:S \to \mathbb的函數稱為随机变量。 如果X指定给概率空间S中每一个事件e有一个实数X(e),同时针对每一个实数r都有一个事件集合A_r与其相对应,其中A_r.
查看 协方差矩阵和随机变量
行向量與列向量
在 线性代数中,列向量 / 排矩阵 是一个 m × 1 矩阵,m 為任意正整數,例如: 此外,行向量 / 行矩阵 是一个 1 × m 矩阵,m為任意正整數,例如: 黑体字 \mathbf 用于表示行向量或列向量。 行向量的转置(以T表示)是列向量: 而列向量的转置就是行向量: 集合所有的行矢量的 向量空间 称为行空间。同样地,集合所有列矢量的向量空间称为列空间。行列空间的尺寸等的条目数量的行中的或列的矢量。 列空間可以看作是行空間的雙重空間,因為列向量空間上的任何線性函數都可以唯一地表示為具有特定行向量的內積。.
标量
--(Scalar),又称--,是只有大小,没有方向,可用實數表示的一個量,實際上純量就是實數,純量這個稱法只是為了區別與向量的差別。标量可以是負數,例如溫度低於冰點。与之相对,向量(又称--)既有大小,又有方向。 在物理学中,标量是在坐标变换下保持不变的物理量。例如,欧几里得空间中两点间的距离在坐标变换下保持不变,相对论四维时空中在坐标变换下保持不变。与此相对的矢量,其分量在不同的坐标系中有不同的值,例如速度。标量可被用作定义向量空间。.
查看 协方差矩阵和标量
概率论
概率论(Probability theory)是集中研究概率及随机现象的数学分支,是研究隨機性或不確定性等現象的數學。概率论主要研究对象为随机事件、随机变量以及随机过程。对于随机事件是不可能准确预测其结果的,然而对于一系列的独立随机事件——例如掷骰子、扔硬币、抽扑克牌以及輪盤等,会呈现出一定的、可以被用于研究及预测的规律,两个用来描述这些规律的最具代表性的数学结论分别是大数定律和中心极限定理。 作为统计学的数学基础,概率论对诸多涉及大量数据定量分析的人类活动极为重要,概率论的方法同样适用于其他方面,例如是对只知道系统部分状态的复杂系统的描述——统计力学,而二十世纪物理学的重大发现是以量子力学所描述的原子尺度上物理现象的概率本质。 數學家和精算師認為概率是在0至1閉區間内的數字,指定給一發生與失敗是隨機的「事件」。概率P(A)根據概率公理來指定給事件A。 一事件A在一事件B確定發生後會發生的概率稱為B給之A的條件概率;其數值為。若B給之A的條件概率和A的概率相同時,則稱A和B為獨立事件。且A和B的此一關係為對稱的,這可以由一同價敘述:「當A和B為獨立事件時,P(A \cap B).
查看 协方差矩阵和概率论
正定矩阵
在线性代数裡,正定矩阵是埃尔米特矩阵的一种,有时会简称为正定阵。在线性代数中,正定矩阵的性质類似复数中的正实数。与正定矩阵相对应的线性算子是对称正定双线性形式(複域中则对应埃尔米特正定双线性形式)。.
查看 协方差矩阵和正定矩阵
期望值
在概率论和统计学中,一个离散性随机变量的期望值(或数学期望、或均值,亦简称期望,物理学中称为期待值)是试验中每次可能的结果乘以其结果概率的总和。换句话说,期望值像是随机试验在同样的机会下重复多次,所有那些可能狀態平均的结果,便基本上等同“期望值”所期望的數。需要注意的是,期望值并不一定等同于常识中的“期望”——“期望值”也许与每一个结果都不相等。(换句话说,期望值是该变量输出值的平均数。期望值并不一定包含于变量的输出值集合裡。) 例如,掷一枚公平的六面骰子,其每次「點數」的期望值是3.5,计算如下: \operatorname(X)&.
查看 协方差矩阵和期望值
方差
方差(Variance),應用數學裡的專有名詞。在概率论和统计学中,一个随机变量的方差描述的是它的离散程度,也就是该变量离其期望值的距离。一个实随机变量的方差也称为它的二阶矩或二階中心動差,恰巧也是它的二阶累积量。這裡把複雜說白了,就是將各個誤差將之平方(而非取絕對值,使之肯定為正數),相加之後再除以總數,透過這樣的方式來算出各個數據分佈、零散(相對中心點)的程度。繼續延伸的話,方差的算术平方根称为该随机变量的标准差(此為相對各個數據點間)。.
查看 协方差矩阵和方差
另见
协方差与相关性
亦称为 共變異數矩陣。