目录
22 关系: 协方差,卡尔曼滤波,多元正态分布,威沙特分佈,對稱矩陣,主成分分析,二次型 (统计),互协方差,互相关,矩阵,用於數學、科學和工程的希臘字母,特征脸,白雜訊,角检测,马哈拉诺比斯距离,高斯积分,費雪線性判別,费雪信息,STA,朴素贝叶斯分类器,方差,施密特–卡尔曼滤波器。
协方差
共變異數(Covariance)在概率論和統計學中用於衡量兩個變量的总体误差。而方差是协方差的一種特殊情況,即當兩個變量是相同的情況。 期望值分别为E(X).
查看 协方差矩阵和协方差
卡尔曼滤波
卡尔曼滤波(Kalman filter)是一种高效率的递归滤波器(自回归滤波器),它能够从一系列的不完全及包含雜訊的测量中,估计动态系统的状态。卡尔曼滤波會根據各測量量在不同時間下的值,考慮各時間下的联合分布,再產生對未知變數的估計,因此會以只以單一測量量為基礎的估計方式要準。卡尔曼濾波得名自主要貢獻者之一的鲁道夫·卡尔曼。 卡尔曼滤波在技術領域有許多的應用。常見的有飛機及太空船的。卡尔曼滤波也廣為使用在時間序列的分析中,例如信号处理及计量经济学中。卡尔曼滤波也是機器人運動規劃及控制的重要主題之一,有時也包括在。卡尔曼滤波也用在中軸神經系統運動控制的建模中。因為從給與運動命令到收到感覺神經的回授之間有時間差,使用卡尔曼滤波有助於建立符合實際的系統,估計運動系統的目前狀態,並且更新命令。 卡尔曼滤波的演算法是二步驟的程序。在估計步驟中,卡尔曼滤波會產生有關目前狀態的估計,其中也包括不確定性。只要觀察到下一個量測(其中一定含有某種程度的誤差,包括隨機雜訊)。會透過加權平均來更新估計值,而確定性越高的量測加權比重也越高。演算法是迭代的,可以在中執行,只需要目前的輸入量測、以往的計算值以及其不確定性矩陣,不需要其他以往的資訊。 使用卡尔曼滤波不用假設誤差是正态分布,不過若所有的誤差都是正态分布,卡尔曼滤波可以得到正確的條件機率估計。 也發展了一些擴展或是廣義的卡尔曼滤波,例如運作在非線性糸統的及无损卡尔曼滤波(unscented Kalman filter)。底層的模型類似隐马尔可夫模型,不過的狀態空間是連續的,而且所有潛在變量及可觀測變數都是正态分布.
查看 协方差矩阵和卡尔曼滤波
多元正态分布
多变量正态分布亦称为多变量高斯分布。它是单维正态分布向多维的推广。它同矩阵正态分布有紧密的联系。.
查看 协方差矩阵和多元正态分布
威沙特分佈
以統計學家约翰·威沙特為名的威沙特分佈是統計學上的一種半正定矩陣隨機分佈。這個分佈在多變量分析的共變異矩陣估計上相當重要。.
查看 协方差矩阵和威沙特分佈
對稱矩陣
在線性代數中,對稱矩陣是一個方形矩陣,其轉置矩陣和自身相等。 對稱矩陣中的右上至左下方向元素以主對角線(左上至右下)為軸進行對稱。若將其寫作A.
查看 协方差矩阵和對稱矩陣
主成分分析
在多元统计分析中,主成分分析(Principal components analysis,PCA)是一種分析、簡化數據集的技術。主成分分析经常用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 主成分分析由卡爾·皮爾遜於1901年發明,用於分析數據及建立數理模型。其方法主要是通過對共變異數矩陣進行特征分解,以得出數據的主成分(即特征向量)與它們的權值(即特征值)。PCA是最簡單的以特征量分析多元統計分布的方法。其結果可以理解為對原數據中的方差做出解釋:哪一個方向上的數據值對方差的影響最大?換而言之,PCA提供了一種降低數據維度的有效辦法;如果分析者在原數據中除掉最小的特征值所對應的成分,那麼所得的低維度數據必定是最優化的(也即,這樣降低維度必定是失去訊息最少的方法)。主成分分析在分析複雜數據時尤為有用,比如人臉識別。 PCA是最简单的以特征量分析多元统计分布的方法。通常情况下,这种运算可以被看作是揭露数据的内部结构,从而更好的解释数据的变量的方法。如果一个多元数据集能够在一个高维数据空间坐标系中被显现出来,那么PCA就能够提供一幅比较低维度的图像,这幅图像即为在讯息最多的点上原对象的一个‘投影’。这样就可以利用少量的主成分使得数据的维度降低了。 PCA跟因子分析密切相关,并且已经有很多混合这两种分析的统计包。而真实要素分析则是假定底层结构,求得微小差异矩阵的特征向量。.
查看 协方差矩阵和主成分分析
二次型 (统计)
在多元变量统计中,如果 \varepsilon 为 n 维随机向量, \Lambda 是一个 n 维对称矩阵,则随机变量 \varepsilon^T\Lambda\varepsilon 称为 \varepsilon 的二次型。.
互协方差
在统计学中,互协方差表示两个随机向量 X 与 Y 之间的协方差 cov(X, Y),以区别于随机向量 X 的“协方差”即 X 的各个标量元素之间的协方差矩阵。 在信号处理领域,互协方差是两个信号 (信息论)之间相似性的度量,它也称为“互相关”。互协方差通常用于通过与已知信号做比较从来寻找未知信号的特点。它是信号之间相对于时间的函数,有时也称为滑动点积,在模式识别与密码分析学中都有应用。 离散函数 fi 与 gi 的互协方差定义为 其中累计和是在一个合适的整数 j 上进行计算,星号表示是共轭复数。 连续函数 f (x) 与 g i 的互协方差定义为 其中积分在合适的 t 上进行。 互协方差本质上类似于两个函数的卷积。.
查看 协方差矩阵和互协方差
互相关
在统计学中,互相关有时用来表示两个随机矢量 X 和 Y 之间的协方差cov(X, Y),以与矢量 X 的“协方差”概念相区分,矢量 X 的“协方差”是 X 的各标量成分之间的协方差矩阵。 在信号处理领域中,互相关(有时也称为“互协方差”)是用来表示两个信号之间相似性的一个度量,通常通过与已知信号比较用于寻找未知信号中的特性。它是两个信号之间相对于时间的一个函数,有时也称为“滑动点积”,在模式识别以及密码分析学领域都有应用。 对于离散函数 fi 和 gi 来说,互相关定义为 其中和在整个可能的整数 j 区域取和,星号表示复共轭。对于连续信号 f(x) 和 g(x) 来说,互相关定义为 其中积分是在整个可能的 t 区域积分。 互相关实质上类似于两个函数的卷积。.
查看 协方差矩阵和互相关
矩阵
數學上,一個的矩陣是一个由--(row)--(column)元素排列成的矩形阵列。矩陣--的元素可以是数字、符号或数学式。以下是一个由6个数字元素构成的2--3--的矩阵: 大小相同(行数列数都相同)的矩阵之间可以相互加减,具体是对每个位置上的元素做加减法。矩阵的乘法则较为复杂。两个矩阵可以相乘,当且仅当第一个矩阵的--数等于第二个矩阵的--数。矩阵的乘法满足结合律和分配律,但不满足交换律。 矩阵的一个重要用途是解线性方程组。线性方程组中未知量的系数可以排成一个矩阵,加上常数项,则称为增广矩阵。另一个重要用途是表示线性变换,即是诸如.
查看 协方差矩阵和矩阵
用於數學、科學和工程的希臘字母
希臘字母被用於數學、科學、工程和其他方面。在數學方面,希臘字母通常用於常數、特殊函數和特定的變數,而且通常大寫和小寫都有分別,而且互不相關。有一些希臘字母和拉丁字母一樣,而且不被使用:A, B, E, H, I, K, M, N, O, P, T, X, Y, Z。除此之外,由於小寫的ι(iota),ο(omicron)和υ(upsilon)跟拉丁字母i,o和u相似,所以很少被使用。有時,希臘字母的字體變種在數學數有特定的意思,例如φ(phi)和π(pi)。 在金融數學中,有些會用來表示投資風險的變數。 母語為英語的數學家在讀希臘字母時,他們不會用現在的或古時的發音,但用傳統的英語發音。例如θ,數學家會讀成/ˈθeɪtə/。(古時:,現在:).
特征脸
特征脸(Eigenface)是指用于机器视觉领域中的人脸识别问题的一组特征向量。使用特征脸进行人脸识别的方法首先由Sirovich and Kirby (1987)提出,并由Matthew Turk和Alex Pentland用于人脸分类。该方法被认为是第一种有效的人脸识别方法。这些特征向量是从高维矢量空间的人脸图像的协方差矩阵计算而来。.
查看 协方差矩阵和特征脸
白雜訊
白噪声,是一種功率譜密度為常數的隨機信號或随机过程。即,此信號在各個频段上的功率是一樣的。由于白光是由各種頻率(颜色)的单色光混合而成,因而此信号的這種具有平坦功率谱的性质被称作是“白色的”,此信号也因此被称作白噪声。相对的,其他不具有这一性质的噪声信号被称为有色噪声。 理想的白噪声具有無限頻寬,因而其能量是無限大,這在现实世界是不可能存在的。实际上,我們常常將有限頻寬的平整訊號視為白噪声,以方便进行數學分析。.
查看 协方差矩阵和白雜訊
角检测
角检测或兴趣点检测(interest point detection)是计算机视觉系统中用来提取特征以及推测图像内容的一种方法.角检测的应用很广,经常用在运动检测,跟踪,图像镶嵌(image mosaicing),全景图缝合(panorama stiching),三维建模以及物体识别中.
查看 协方差矩阵和角检测
马哈拉诺比斯距离
哈拉诺比斯距离是由印度统计学家提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系(例如:一条关于身高的信息会带来一条关于体重的信息,因为两者是有关联的)并且是尺度无关的(scale-invariant),即独立于测量尺度。 对于一个均值为\mu.
高斯积分
斯积分(Gaussian integral),有时也被称为概率积分,是高斯函数(e−x2)在整个實數線上的积分。它是依德国数学家兼物理学家卡爾·弗里德里希·高斯之姓氏所命名。 这个积分用处很广。例如,在变量略有变化的情况下,它用于计算正态分布的。还是这个积分,在极限为有限值的时候,与正态分布的误差函数和累积分布函数密切相关。在物理学中,这种积分经常出现,例如在量子力学中,为了求谐振子基态的概率密度,以及在路径积分公式中,求谐振子的传播子,我们都要用到这个积分。 尽管误差函数不存在初等函数,但可以通过Risch算法证明,高斯积分可以通过多元微积分方法分析求解。下面这个不定积分 无法用初等函数表示,但可以计算定积分 任意高斯函数的定积分为 在物理学中,经常用到高斯积分;而在量子场论中会用到许多该积分的推广形式。.
查看 协方差矩阵和高斯积分
費雪線性判別
在模式识别中,费雪线性判别(Fisher's linear discriminant)是一种线性判别方法,其意图是将d维空间中的数据点投影到c-1维空间上去,使得不同类的样本点在这个空间上的投影尽量分离,同类的尽量紧凑。.
查看 协方差矩阵和費雪線性判別
费雪信息
在 数理统计学, 费雪信息 (有时简称为 信息)是一种度量随机变量 X 所含有的关于其自身随机分布函数的未知参数 θ 的信息量。严格地说,它是分数对方差或观测信息的期望值。Fisher信息在最大似然估计量的大样本分布中地位是由统计学家罗纳德*费雪推广的(通过发展弗朗西斯*伊西德罗*埃奇沃思(Francis Ysidro Edgeworth)的初步结果)。 费雪信息矩阵是可以用来计算最大似然估计量的协方差矩阵。 此外,它还用在一些统计检验量(比如瓦尔德检验)的公式中。.
查看 协方差矩阵和费雪信息
STA
STA,英文全称Spike-triggered average,直译做“发放-触发平均方法”,由于太拗口,通常不用其译名。STA是神经科学研究,尤其是视觉研究中用于描述神经元反应特性的一种方法。这种方法主要被用来分析电生理数据,估计神经元的线性感受野。.
查看 协方差矩阵和STA
朴素贝叶斯分类器
在机器学习中,單純貝氏分类器是一系列以假设特征之间强(朴素)独立下运用贝叶斯定理为基础的简单。 單純貝氏自20世纪50年代已广泛研究。在20世纪60年代初就以另外一个名称引入到文本信息检索界中, 并仍然是文本分类的一种热门(基准)方法,文本分类是以词频为特征判断文件所属类别或其他(如垃圾邮件、合法性、体育或政治等等)的问题。通过适当的预处理,它可以与这个领域更先进的方法(包括支持向量机)相竞争。 它在自动医疗诊断中也有应用。 單純貝氏分类器是高度可扩展的,因此需要数量与学习问题中的变量(特征/预测器)成线性关系的参数。最大似然训练可以通过评估一个封闭形式的表达式来完成, 只需花费线性时间,而不需要其他很多类型的分类器所使用的费时的迭代逼近。 在统计学和计算机科学文献中,單純貝氏模型有各种名称,包括简单贝叶斯和独立贝叶斯。 所有这些名称都参考了贝叶斯定理在该分类器的决策规则中的使用,但單純貝氏不(一定)用到贝叶斯方法; 《》提到“『單純貝氏』有时被称为贝叶斯分类器,这个马虎的使用促使真正的贝叶斯论者称之为傻瓜贝叶斯模型。”.
方差
方差(Variance),應用數學裡的專有名詞。在概率论和统计学中,一个随机变量的方差描述的是它的离散程度,也就是该变量离其期望值的距离。一个实随机变量的方差也称为它的二阶矩或二階中心動差,恰巧也是它的二阶累积量。這裡把複雜說白了,就是將各個誤差將之平方(而非取絕對值,使之肯定為正數),相加之後再除以總數,透過這樣的方式來算出各個數據分佈、零散(相對中心點)的程度。繼續延伸的話,方差的算术平方根称为该随机变量的标准差(此為相對各個數據點間)。.
查看 协方差矩阵和方差
施密特–卡尔曼滤波器
施密特–卡尔曼滤波器(Schmidt–Kalman Filter),是修改版的卡尔曼滤波,減少狀態估測的維度,不過仍有額外的狀態可以計算协方差矩阵及卡尔曼增益。常見的應用是考量像是傳感器誤差等的影響,但又不增加狀態估測的維度,因此可以確保协方差矩阵可以準確的呈現誤差的分析情形。 不增加狀態空間維度,而使用施密特–卡尔曼滤波器的主要好處是減少運算的複雜度。因此可以用在即時系統的濾波中。另外一個使用施密特–卡尔曼滤波器的場合是殘餘誤差無法觀測的情形下,也就是說,無法從量測資料中將誤差效果獨立出來的情形。此時,施密特–卡尔曼滤波器是強健性的濾波方式,不去估計偏差的大小,但在真實誤差分析中去追蹤偏差的影響。 若是非線性系統,可以在目前的平均值及协方差估計值附近,將觀測模型及狀態傳遞模型線性化,類似的作法。.
亦称为 共變異數矩陣。