徽标
联盟百科
通讯
下载应用,请到 Google Play
新! 在您的Android™设备上下载联盟百科!
安装
比浏览器更快的访问!
 

深度学习

指数 深度学习

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或的特征学习和分层特征提取高效算法来替代手工获取。 表征学习的目标是寻求更好的表示方法并建立更好的模型来从大规模未标记数据中学习这些表示方法。表示方法来自神经科学,并松散地建立在類似神经系统中的信息处理和对通信模式的理解上,如神经编码,试图定义拉動神经元的反应之间的关系以及大脑中的神经元的电活动之间的关系。 至今已有數种深度学习框架,如深度神经网络、卷积神经网络和和递归神经网络已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并取得了极好的效果。 另外,「深度学习」已成為類似術語,或者说是神经网络的品牌重塑。.

57 关系: AlphaGoAlphaGo李世乭五番棋卷积神经网络反向传播算法受限玻尔兹曼机吴恩达大脑尺度不變特徵轉換交叉熵人工神经网络二端口网络归纳推理圖形處理器判别模型因果关系神经科学神经系统神经编码神经网络算法线性映射美国英语生物信息学生成模型燕乐存特征学习特征提取Deeplearning4j過適非監督式學習表征学习视觉皮层计算机视觉语音识别谷歌大脑蒙特利尔大学自然语言处理逻辑推理递归神经网络FacebookIBMImperial College LondonJavaPythonTensorFlowTIMITYouTube杰弗里·辛顿梯度消失问题沃森 (人工智能程序)...演绎推理激活函数机器学习最大似然估计支持向量机扬·勒丘恩托斯坦·威泽尔 扩展索引 (7 更多) »

AlphaGo

-- -- -- AlphaGo(“Go”为日文“碁”字发音转写,是围棋的西方名称),直译为阿法围棋,亦被音译为阿尔法狗、阿法狗、阿发狗等,是於2014年开始由英国伦敦Google DeepMind开发的人工智能圍棋軟體,以及對應的電影紀錄片《AlphaGo世紀對決》。 專業術語上來說,AlphaGo的做法是使用了蒙特卡洛树搜索與兩個深度神經網路相結合的方法,其中一個是以估值网络來評估大量的選點,而以走棋网络來選擇落子。在這種設計下,電腦可以結合樹狀圖的長遠推斷,又可像人類的大腦一樣自發學習進行直覺訓練,以提高下棋實力。.

新!!: 深度学习和AlphaGo · 查看更多 »

AlphaGo李世乭五番棋

AlphaGo對李世乭是由韓國職業九段棋士李世乭(이세돌)與由Google DeepMind開發的電腦圍棋軟件AlphaGo對弈的五局三勝制圍棋比賽。比賽於2016年3月8日到3月15日在南韓首爾舉行,採中國圍棋規則:黑方給白方的貼目為七目半,思考時間每方兩小時,用完後各有三次一分鐘讀秒。結果為AlphaGo以四勝一敗擊敗李世乭。賽後韓國棋院授予AlphaGo為榮譽九段。.

新!!: 深度学习和AlphaGo李世乭五番棋 · 查看更多 »

卷积神经网络

卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网络能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网络在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网络,卷积神经网络需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。.

新!!: 深度学习和卷积神经网络 · 查看更多 »

反向传播算法

反向传播(Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。 反向传播要求有对每个输入值想得到的已知输出,来计算损失函数梯度。因此,它通常被认为是一种監督式學習方法,虽然它也用在一些无监督网络(如)中。它是多层前馈网络的的推广,可以用链式法则对每层迭代计算梯度。反向传播要求(或“节点”)的激励函数可微。.

新!!: 深度学习和反向传播算法 · 查看更多 »

受限玻尔兹曼机

受限玻尔兹曼机(restricted Boltzmann machine, RBM)是一种可通过输入数据集学习概率分布的随机生成神经网络。RBM最初由发明者于1986年命名为簧风琴(Harmonium),但直到杰弗里·辛顿及其合作者在2000年代中叶发明快速学习算法后,受限玻兹曼机才变得知名。受限玻兹曼机在降维、分类、协同过滤、特征学习和主题建模中得到了应用。根据任务的不同,受限玻兹曼机可以使用监督学习或无监督学习的方法进行训练。 正如名字所提示的那样,受限玻兹曼机是一种玻兹曼机的变体,但限定模型必须为二分图。模型中包含对应输入参数的输入(可见)单元和对应训练结果的隐单元,图中的每条边必须连接一个可见单元和一个隐单元。(与此相对,“无限制”玻兹曼机包含隐单元间的边,使之成为递归神经网络。)这一限定使得相比一般玻兹曼机更高效的训练算法成为可能,特别是基于梯度的对比分歧(contrastive divergence)算法Miguel Á. Carreira-Perpiñán and Geoffrey Hinton (2005).

新!!: 深度学习和受限玻尔兹曼机 · 查看更多 »

吴恩达

吳恩達(Andrew Ng,)是斯坦福大学计算机科学系和电气工程系的副教授,的主任。他还与达芙妮·科勒一起创建了在线教育平台Coursera。.

新!!: 深度学习和吴恩达 · 查看更多 »

大脑

綠色是顳葉,藍色是額葉,黃色是頂葉,紅色是枕葉。 大脑(cerebrum),是脑与间脑。在醫學及解剖学上,多用大脑一词來指代端脑。 端脑有左右两个大脑半球(端脑半球)。将两个半球隔开的是称为大脑纵隔的沟壑,两个半球除了脑梁与透明中隔相连以外完全左右分开。半球表面布满脑沟,沟与沟之间所夹细长的部分称为脑回。脑沟并非是在脑的成长过程中随意形成,什么形态出现在何处都完全有规律(其深度和弯曲度因人稍有差异)。每一条脑沟在解剖学上都有专有名称(nomina anatomica)。脑沟与脑回的形态基本左右半球对称,是对脑进行分叶和定位的重要标志。有关大脑两半球功能单侧化的研究表明,大多数人的言语活动中枢在大脑左半球。比较重要的脑沟有外侧沟 (lateral sulcus)起于半球下面,行向后上方,至上外侧面;中央沟 (central sulcus)起于半球上绿中点稍后方,斜向前下方,下端与外侧沟隔一脑回,上端延伸至半球内侧面;顶枕沟(parietooccipital sulcus)位于半球内侧面后部,自下向上。在外侧沟上方和中央沟以前的部分为额叶;外侧沟以下的部分为颞叶;枕叶位于半球后部,其前界在内侧面为顶枕沟,在上外侧面的界限是自顶枕沟至枕前切迹(在枕叶后端前方约4cm处)的连线;顶叶为外侧沟上方、中央沟后方、枕叶以前的部分;岛叶呈三角形岛状,位于外侧沟深面,被额、顶、颞叶所掩盖,与其他部分不同布满细小的浅沟(非脑沟)。 左右大脑半球有各自的称为侧脑室的腔隙。侧脑室与间脑的第三脑室,以及小脑和延脑及脑桥之间的第四脑室之间有孔道连通。脑室中的脉络丛产生脑的液体称为脑脊液。脑脊液在各脑室与蛛网膜下腔之间循环,如果脑室的通道阻塞,脑室中的脑脊液积多,将形成脑积水。 广义的大脑的脑神经有,端脑出发的嗅神经,间脑出发的视神经。 大脑的断面分为白质与灰白质。端脑的灰白质是指表层的数厘米厚的称为大脑皮质的一层,大脑皮质是神经细胞聚集的部分,具有六层的构造,含有复杂的回路是思考等活动的中枢。相对大脑皮质白质又称为大脑髓质。 间脑由丘脑与下丘脑构成。丘脑与大脑皮质,脑干,小脑,脊髓等联络,负责感觉的中继,控制运动等。下丘脑与保持身体恒常性,控制自律神经系统,感情等相关。 大腦的神經細胞只要在1.5分鐘內得不到氧氣,人就會失去知覺;而5、6分鐘後仍缺氧,神經細胞便會陸續死去。.

新!!: 深度学习和大脑 · 查看更多 »

尺度不變特徵轉換

尺度不變特徵轉換(Scale-invariant feature transform 或 SIFT)是一種机器視覺的演算法用來偵測與描述影像中的局部性特徵,它在空間尺度中尋找極值點,並提取出其位置、尺度、旋轉不變數,此演算法由 David Lowe 在1999年所發表,2004年完善總結。 後續的論文中也有許多基於 SIFT 改進的論文,例如 SURF 將 SIFT 的許多過程近似,達到加速的效果;PCA-SIFT利用主成分分析降低描述子的維度,減少記憶體的使用並加快配對速度。 其應用範圍包含物體辨識、機器人地圖感知與導航、影像縫合、3D模型建立、手勢辨識、影像追蹤和動作比對。 此演算法有其專利,專利擁有者為 英屬哥倫比亞大學。.

新!!: 深度学习和尺度不變特徵轉換 · 查看更多 »

交叉熵

在信息论中,基于相同事件测度的两个概率分布p和q的交叉熵是指,当基于一个“非自然”(相对于“真实”分布p而言)的概率分布q进行编码时,在事件集合中唯一标识一个事件所需要的平均比特数(bit)。 基于概率分布p和q的交叉熵定义为: 其中H(p)是p的熵,D_(p \| q)是从p到q的KL散度(也被称为p相对于q的相对熵)。 对于离散分布p和q,这意味着: 对于连续分布也是类似的。我们假设p和q在测度 r上是绝对连续的(通常 r是Lebesgue measure on a Borel σ-algebra)。设P和Q分别为p的q在测度 r上概率密度函数。则.

新!!: 深度学习和交叉熵 · 查看更多 »

人工神经网络

人工神经网络(Artificial Neural Network,ANN),简称神经网络(Neural Network,NN)或類神經網絡,在机器学习和认知科学领域,是一种模仿生物神经网络(动物的中樞神經系統,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统,通俗的講就是具備學習功能。现代神经网络是一种非线性统计性数据建模工具。典型的神经网络具有以下三个部分:.

新!!: 深度学习和人工神经网络 · 查看更多 »

二端口网络

二端口网络(two-port network)又称双端口网络、双口网络,是四端子网络(四端网络)的一种,是具有2个端口的电路或装置,端口与电路内部网络相连接。一个端口由2个端子组成,当这2个端子满足端口条件,即一个端子流入的电流等于另一个端子流出的电流时,则这2个端子就构成了一个端口,换句话说,也就是相同的电流从同一端口流入并流出。Gray,§3.2,第172页Jaeger,§10.5、§13.5、§13.8二端口网络的实例包括三极管的小信号模型(如混合π模型)、电子滤波器以及阻抗匹配网络。被动二端口网络的分析是互易定理的副产物,最初由洛伦兹提出。 二端口网络能将电路的整体或一部分用它们相应的外特性参数来表示,而不用考虑其内部的具体情况,这样被表示的电路就成为具有一组特殊性质的“黑箱”,从而就能抽象化电路的物理组成,简化分析。任意具有4个端子的线性电路都可以变换成二端口网络,且满足不含独立源的条件和端口条件。 描述二端口网络的参数不只有一组,常用的几组参数是分别为阻抗参数Z、导纳参数Y、混合参数h、g和传输参数,每组参数都在下文中有描述。这几组参数只能用於线性网络,因为它们导出的条件是假定任何给定的电路情况都是各种短路和开路情况的线性叠加。这几组参数通常用矩阵表示法表示,通过以下变量建立关系: 如图1所示。这些电流和电压变量在低频到中频情况下是非常有用的。在高频情况下(如微波频率),使用功率和能量变量会更合适,这时二端口电流-电压法就应该由基於S的方法代替。 请注意,四端子网络(four-terminal network)等同於四端网络(quadripole,注意与四极子(quadrupole)区分),但不等同於二端口网络,因为只有2个端子满足流入一个端子的电流等於流出另一个端子的电流时,即满足端口条件时,才能称这2个端子为一个端口,而四端子网络的端子可能无法满足端口条件。因此对於一个四端子网络,只有当连接到其内部电路的2对端子满足端口条件时,这个四端子网络才是一个二端口网络。.

新!!: 深度学习和二端口网络 · 查看更多 »

归纳推理

归纳法或归纳推理(Inductive reasoning),有时叫做归纳逻辑,是论证的前提支持结论但不确保结论的推理过程。它基于对特殊的代表(token)的有限观察,把性质或关系归结到类型;或基于对反复再现的现象的模式(pattern)的有限观察,公式表达规律。例如,使用归纳法在如下特殊的命题中:.

新!!: 深度学习和归纳推理 · 查看更多 »

圖形處理器

圖形處理器(graphics processing unit,縮寫:GPU),又稱顯示核心、視覺處理器、顯示晶片或繪圖晶片,是一種專門在個人電腦、工作站、遊戲機和一些行動裝置(如平板電腦、智慧型手機等)上執行繪圖運算工作的微處理器。 圖形處理器是輝達公司(NVIDIA)在1999年8月發表精視 256(GeForce 256)繪圖處理晶片時首先提出的概念,在此之前,電腦中處理影像輸出的顯示晶片,通常很少被視為是一個獨立的運算單元。而對手冶天科技(ATi)亦提出視覺處理器(Visual Processing Unit)概念。圖形處理器使顯示卡减少了對中央處理器(CPU)的依赖,並分擔了部分原本是由中央處理器所擔當的工作,尤其是在進行三維繪圖運算時,功效更加明顯。圖形處理器所採用的核心技術有硬體座標轉換與光源、立體環境材質貼圖和頂點混合、纹理壓缩和凹凸映射貼圖、雙重纹理四像素256位渲染引擎等。 圖形處理器可單獨與專用電路板以及附屬組件組成顯示卡,或單獨一片晶片直接內嵌入到主機板上,或者內建於主機板的北橋晶片中,現在也有內建於CPU上組成SoC的。個人電腦領域中,在2007年,90%以上的新型桌上型電腦和筆記型電腦擁有嵌入式繪圖晶片,但是在效能上往往低於不少獨立顯示卡。但2009年以後,AMD和英特爾都各自大力發展內建於中央處理器內的高效能整合式圖形處理核心,它們的效能在2012年時已經勝於那些低階獨立顯示卡,這使得不少低階的獨立顯示卡逐漸失去市場需求,兩大個人電腦圖形處理器研發巨頭中,AMD以AMD APU產品線取代旗下大部分的低階獨立顯示核心產品線。而在手持裝置領域上,隨著一些如平板電腦等裝置對圖形處理能力的需求越來越高,不少廠商像是高通(Qualcomm)、PowerVR、ARM、NVIDIA等,也在這個領域裏紛紛「大展拳腳」。 GPU不同于传统的CPU,如Intel i5或i7处理器,其内核数量较少,专为通用计算而设计。 相反,GPU是一种特殊类型的处理器,具有数百或数千个内核,经过优化,可并行运行大量计算。 虽然GPU在游戏中以3D渲染而闻名,但它们对运行分析、深度学习和机器学习算法尤其有用。 GPU允许某些计算比传统CPU上运行相同的计算速度快10倍至100倍。.

新!!: 深度学习和圖形處理器 · 查看更多 »

判别模型

在机器学习领域判别模型是一种对未知数据 y 与已知数据 x 之间关系进行建模的方法。判别模型是一种基于概率理论的方法。已知输入变量 x ,判别模型通过构建条件概率分布 P(y|x) 预测 y 。 与生成模型不同,判别模型不考虑 x 与 y 间的联合分布。对于诸如分类和回归问题,由于不考虑联合概率分布,采用判别模型可以取得更好的效果。而生成模型在刻画复杂学习任务中的依赖关系方面则较判别模型更加灵活。大部分判别模型本身是监督学习模型,不易扩展用于非监督学习过程。实践中,需根据应用的具体特性来选取判别模型或生成模型。.

新!!: 深度学习和判别模型 · 查看更多 »

因果关系

因果关系(英語:causality或causation)是一個事件(即“因”)和第二個事件(即“果”)之間的作用關係,其中後一事件被認為是前一事件的結果。一般來說,一個事件是很多原因綜合產生的結果,而且原因都發生在較早時間點,而該事件又可以成為其他事件的原因。 一般來說,因果還可以指一系列因素(因)和一個现象(果)之間的關係。對某个结果產生影響的任何事件都是该结果的一个因素。直接因素是直接影响结果的因素,也即无需任何介入因素(介入因素有时又称中介因素)。从这个角度来讲,因果之间的关系也可以称为因果关联(causal nexus)。 原因和结果通常和变化或事件有关,还包括客体、过程、性质、变量、事实、状况;概括因果关系争议很多。对因果关系的哲学研究历史悠久,佛教和西方哲學家如亞里士多德在2000多年前就已經提出了因果,该问题仍是现代哲学的重要课题。.

新!!: 深度学习和因果关系 · 查看更多 »

神经科学

經科學(neuroscience),又稱神經生物學,是專門研究神經系統的結構、功能、发育、演化、遗传学、生物化學、生理學、藥理學及病理學的一门科学。對行為及學習的研究都是神經科學的分支。 對人腦研究是個跨領域的範疇,當中涉及分子層面、細胞層面、神經小組、大型神經系統,如視覺神經系統、腦幹、腦皮層。 最高層次的研究就是結合認知科學成為認知神經科學,其專家被稱為認知心理學家。一些研究人員相信認知神經科學提供對思維及知覺的全面了解,甚至可以代替心理學。 神经科学致力于科学地研究神经系统。尽管神经科学学会成立于1969年,但是对于大脑的研究很早就已经开始。传统的神经科学是生物科学的一个分支。其研究范围包括对神经系统的结构,功能,进化史,发育,遗传,生理学,药理学和病理学研究,近年来神经科学的研究深度有了突破性成長,开始与其他学科有了越来越多的交叉与融合,如认知和神经心理学,精神疾病學,计算机科学,生物信息学,计算神经生物学,统计学,物理学,生物化学,犯罪學,医学科学和哲学陸續加入研究行列。 暫時最關心的課題是: .

新!!: 深度学习和神经科学 · 查看更多 »

神经系统

經系統是由神經元這種特化細胞的網路所構成的。其身體的不同部位間傳遞訊號。動物體藉神經系統和內分泌系統的作用來應付環境的變化。動物的神經系統控制著肌肉的活動,协调各个组织和器官,建立和接受外来情报,并进行协调。神經系統是動物體最重要的連絡和控制系統,它能測知環境的變化,決定如何應付,並指示身體做出適當的反應,使動物體內能進行快速、短暫的訊息傳達來保護自己和生存。 神經組織最早是出現在五億到六億年前的埃迪卡拉生物群中。脊椎动物的神经系统分為二部份:分別是中樞神經系統(CNS)及周围神经系统(PNS)。 中樞神經系統包括腦及脊髓,周围神经系统主要是由神經構成,是由長神經纖維或是轴突組成,連接中樞神經系統及身體各部位。 傳送由大腦發出信號的神經稱為運動(motor)神經或是下行(efferent)神經,而將身體各部位產生信號傳送到中樞神經的神經稱為感覺(sensory)神經或是上行(afferent)神經。大部份的神經是雙向傳遞信號,稱為混合神經。 周围神经系统可分為軀體神經系統、自律神經系統及肠神经系统。軀體神經系統處理隨意運動,也就是依生物體意願而產生的運動,自律神經系統又可分為交感神经及副交感神经,交感神经是在緊急情形時驅動,而副交感神经是在器官呈休息狀態時驅動。 肠神经系统則控制消化道。自律神經系統及肠神经系统都會不隨意願的自主動作。從脑部發出的神经稱為脑神经,而從脊髓發出的神经稱為。 以細胞層面來看,神经系统是以一種稱為神經元的細胞組成。神經元有特殊的構造,可以快速且準確的傳送信號給其他細胞,傳送的是電化學信號,藉由稱為轴突的神經纖維傳輸。 在神經元發生衝動時時,會由突触釋放神經傳導物質。神經元之間的連結形成了神經迴路及,神经网络,控制了生物體的感知及其行為。神經系統除了神經元外,還有神經膠質細胞,提供支持及新陳代謝等機能。 大部份的多細胞生物皆有神經系統,但複雜度有很大的差異。多細胞生物中只有多孔动物门、扁盘动物门及中生動物門等結構非常簡單的生物完全沒有神經系統。 放射狀對稱的生物,包括栉水母及刺胞動物門(包括海葵、水螅、珊瑚及水母),其神經系統為發散狀的。 其他大部份的多細胞生物其神經系統都包括一個腦、一條脊髓(或二條脊髓平行排列)及由腦或脊髓發散到全身的神經,只有一些蠕蟲例外。神經系統的大小隨生物體而不同,最簡單的蠕蟲其神經系統由數百個細胞組成,非洲象的神經系統則有三千億個細胞。 中樞神經系統的功用是在身體全部位之間傳送信號,而接收反饋。神經系統的机能障碍可能是因為先天基因問題造成,也可能是因為外傷或是中毒導致的傷害,或是因為感染或是年老所產生。 神經內科研究有關神經系統的疾病,並尋找預防或治療的方式。周围神经系统最常見的問題是神經傳導不良,其原因有很多種,包括,或著是多发性硬化症及肌萎缩性脊髓侧索硬化症等脱髓鞘疾病。 神经科学是研究神經系統的科學。.

新!!: 深度学习和神经系统 · 查看更多 »

神经编码

经编码(neural coding)是一个和神经科学相关的领域,研究外界刺激与特定的神经元或者神经元组合之间的电生理学关系,以及这些神经元组合电活动之间的关系。 感觉信息与其它信息,都是由脑中的生物神经网络来承载与呈现,基于这个理论,人们认为神经元既可以编码数码信号,也可以编码模拟信号。.

新!!: 深度学习和神经编码 · 查看更多 »

神经网络

经网络可以指:.

新!!: 深度学习和神经网络 · 查看更多 »

算法

-- 算法(algorithm),在數學(算學)和電腦科學之中,為任何良定义的具體計算步驟的一个序列,常用於計算、和自動推理。精確而言,算法是一個表示爲有限長列表的。算法應包含清晰定義的指令用於計算函數。 算法中的指令描述的是一個計算,當其時能從一個初始狀態和初始輸入(可能爲空)開始,經過一系列有限而清晰定義的狀態最終產生輸出並停止於一個終態。一個狀態到另一個狀態的轉移不一定是確定的。隨機化算法在内的一些算法,包含了一些隨機輸入。 形式化算法的概念部分源自尝试解决希尔伯特提出的判定问题,並在其后尝试定义或者中成形。这些尝试包括库尔特·哥德尔、雅克·埃尔布朗和斯蒂芬·科尔·克莱尼分别于1930年、1934年和1935年提出的遞歸函數,阿隆佐·邱奇於1936年提出的λ演算,1936年的Formulation 1和艾倫·圖靈1937年提出的圖靈機。即使在當前,依然常有直覺想法難以定義爲形式化算法的情況。.

新!!: 深度学习和算法 · 查看更多 »

线性映射

在数学中,线性映射(有的书上将“线性变换”作为其同义词,有的则不然)是在两个向量空间(包括由函数构成的抽象的向量空间)之间的一种保持向量加法和标量乘法的特殊映射。线性映射从抽象代数角度看是向量空间的同态,从范畴论角度看是在给定的域上的向量空间所构成的范畴中的态射。 “线性算子”也是与“线性映射”有关的概念。但是不同数学书籍上对“线性算子”的定义存在区别。在泛函分析中,“线性算子”一般被当做“线性映射”的同义词。而有的书则将“线性算子”定义为“线性映射”的自同态子类(详见下文)。为叙述方便,本条目在提及“线性算子”时,采用后一种定义,即将线性算子与线性映射区别开来。.

新!!: 深度学习和线性映射 · 查看更多 »

美国英语

美国英语(英語:American English,简写:AE、AmEng、USEng、en-US),又稱美式英語,簡稱美語,是指美国使用的一种英语形式。它是美国最主要的语言。 根据1990年人口普查,97%的美国居民可以“好”或“很好”地使用英语,只有0.8%的人完全不使用英语,而1890年有3.6%。到2005年,三分之二以上的英語母語者使用美式英語。.

新!!: 深度学习和美国英语 · 查看更多 »

生物信息学

生物信息學(bioinformatics)利用应用数学、信息学、统计学和计算机科学的方法研究生物学的问题。生物信息学的研究材料和结果就是各种各样的生物学数据,其研究工具是计算机,研究方法包括对生物学数据的搜索(收集和筛选)、处理(编辑、整理、管理和显示)及利用(计算、模拟)。目前主要的研究方向有:序列比对、序列組裝、基因识别、基因重组、蛋白质结构预测、基因表达、蛋白质反应的预测,以及建立进化模型。 生物学技术往往生成大量的嘈杂数据。与数据挖掘类似,生物信息学利用数学工具从大量数据中提取有用的生物学信息。生物信息学所要处理的典型问题包括:重新組裝在霰弹枪定序法测序过程中被打散的DNA序列,从蛋白质的氨基酸序列预测蛋白质结构,利用mRNA微阵列或质谱仪的数据检验基因调控的假说。 某些人将计算生物学作为生物信息学的同义词处理;但是另外一些人认为计算生物学和生物信息学应当被当作不同的条目处理,因为生物信息学更侧重於生物学领域中计算方法的使用和发展,而计算生物学强调应用信息学技术对生物学领域中的假说进行检验,并尝试发展新的理论。 生物信息学可以定义为对分子生物学中两类信息流的研究:.

新!!: 深度学习和生物信息学 · 查看更多 »

生成模型

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。它给观测值和标注数据序列指定一个联合概率分布。在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。条件概率分布可以由生成模型根据贝叶斯定理形成。 香农 (1948) 给出了有一个英语双词频率表生成句子的例子。可以生成如“representing and speedily is an good”这种句子。一开始并不能生成正确的英文句子,但随着词频表由双词扩大为三词甚至多词,生成的句子也就慢慢的成型了。 生成模型的定义与判别模型相对应:生成模型是所有变量的全概率模型,而判别模型是在给定观测变量值前提下目标变量条件概率模型。因此生成模型能够用于模拟(即生成)模型中任意变量的分布情况,而判别模型只能根据观测变量得到目标变量的采样。判别模型不对观测变量的分布建模,因此它不能够表达观测变量与目标变量之间更复杂的关系。因此,生成模型更适用于无监督的任务,如分类和聚类。 典型的生成模型包括.

新!!: 深度学习和生成模型 · 查看更多 »

燕乐存

#重定向 扬·勒丘恩.

新!!: 深度学习和燕乐存 · 查看更多 »

特征学习

#重定向 表征学习.

新!!: 深度学习和特征学习 · 查看更多 »

特征提取

#重定向 特征检测.

新!!: 深度学习和特征提取 · 查看更多 »

Deeplearning4j

Deeplearning4j是为Java和Java虚拟机编写的开源深度学习库,是广泛支持各种深度学习算法的运算框架。Deeplearning4j可以实施的技术包括受限玻尔兹曼机、深度置信网络、深度自动编码器、堆叠式降噪自动编码器、循环神经张量网络,以及word2vec、doc2vec和GloVe。这些算法全部包括分布式并行版本,与Hadoop和Spark集成。Skymind是Deeplearning4j的商业支持机构。.

新!!: 深度学习和Deeplearning4j · 查看更多 »

過適

在統計學中,過適(overfitting,或稱過度擬合)現象是指在調適一個統計模型時,使用過多參數。對比於可取得的資料總量來說,一個荒謬的模型只要足夠複雜,是可以完美地適應資料。過適一般可以視為違反奥卡姆剃刀原則。當可選擇的參數的自由度超過資料所包含資訊內容時,這會導致最後(調適後)模型使用任意的參數,這會減少或破壞模型一般化的能力更甚於適應資料。過適的可能性不只取決於參數個數和資料,也跟模型架構與資料的一致性有關。此外對比於資料中預期的雜訊或錯誤數量,跟模型錯誤的數量也有關。 過適現象的觀念對機器學習也是很重要的。通常一個學習演算法是藉由訓練範例來訓練的。亦即預期結果的範例是可知的。而學習者則被認為須達到可以預測出其它範例的正確的結果,因此,應適用於一般化的情況而非只是訓練時所使用的現有資料(根據它的歸納偏向)。然而,學習者卻會去適應訓練資料中太特化但又隨機的特徵,特別是在當學習過程太久或範例太少時。在過適的過程中,當預測訓練範例結果的表現增加時,應用在未知資料的表現則變更差。 在統計和機器學習中,為了避免過適現象,須要使用額外的技巧(如交叉驗證、、、赤池信息量準則或),以指出何時會有更多訓練而沒有導致更好的一般化。人工神經網路的過適過程亦被認知為過度訓練(overtraining)。在treatmeant learning中,使用最小最佳支援值(minimum best support value)來避免過適。 相對於過適是指,使用過多參數,以致太適應資料而非一般情況,另一種常見的現象是使用太少參數,以致於不適應資料,這則稱為乏適(underfitting,或稱:擬合不足)現象。.

新!!: 深度学习和過適 · 查看更多 »

非監督式學習

非監督式學習是一種機器學習的方式,並不需要人力來輸入標籤。它是監督式學習和強化學習等策略之外的一種選擇。在監督式學習中,典型的任務是分類和迴歸分析,且需要使用到人工預先準備好的範例(base)。 一個常見的非監督式學習是数据聚类。在人工神經網路中,生成對抗網絡(GAN)、自組織映射(SOM)和適應性共振理論(ART)則是最常用的非監督式學習。 ART模型允許叢集的個數可隨著問題的大小而變動,並讓使用者控制成員和同一個叢集之間的相似度分數,其方式為透過一個由使用者自定而被稱為警覺參數的常數。ART也用於模式識別,如自動目標辨識和數位信號處理。第一個版本為"ART1",是由卡本特和葛羅斯柏格所發展的。.

新!!: 深度学习和非監督式學習 · 查看更多 »

表征学习

在机器学习中,特征学习或表征学习是学习一个特征的技术的集合:将原始数据转换成为能够被机器学习来有效开发的一种形式。它避免了手动提取特征的麻烦,允许计算机学习使用特征的同时,也学习如何提取特征:学习如何学习。 机器学习任务,例如分类问题,通常都要求输入在数学上或者在计算上都非常便于处理,在这样的前提下,特征学习就应运而生了。然而,在我们现实世界中的数据例如图片,视频,以及传感器的测量值都非常的复杂,冗余并且多变。那么,如何有效的提取出特征并且将其表达出来就显得非常重要。传统的手动提取特征需要大量的人力并且依赖于非常专业的知识。同时,还不便于推广。这就要求特征学习技术的整体设计非常有效,自动化,并且易于推广。 特征学习可以被分为两类:监督的和无监督的,类似于机器学习。.

新!!: 深度学习和表征学习 · 查看更多 »

视觉皮层

视觉皮层(英文:Visual cortex)是指大脑皮层中主要负责处理视觉信息的部分,位于大脑后部的枕叶。人类的视觉皮层包括初级视皮层(V1,亦称纹状皮层(Striate cortex))以及纹外皮层(Extrastriate cortex,例如V2,V3,V4,V5等)。初级视皮层位于Brodmann17区。纹外皮层包括Brodmann18区和Brodmann19区。 大脑的两个半球各有一部分视觉皮层。左半球的视觉皮层从右视野接收信息,而右半球的视觉皮层从左视野接收信息。.

新!!: 深度学习和视觉皮层 · 查看更多 »

计算机视觉

计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图像处理,用计算机处理成为更适合人眼观察或传送给仪器检测的图像。 作为一門科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取「信息」的人工智能系统。这里所指的信息指香农定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。 作为一个工程学科,计算机视觉寻求基于相关理论与模型来建立计算机视觉系统。这类系统的组成部分包括:.

新!!: 深度学习和计算机视觉 · 查看更多 »

语音识别

语音识别(speech recognition;語音辨識/言語辨別)技术,也被称为自动语音识别(Automatic Speech Recognition, ASR)、電腦語音識別(Computer Speech Recognition)或是語音轉文本識別(Speech To Text, STT),其目标是以電腦自動将人类的语音内容转换为相應的文字。与及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。 语音识别技术的应用包括语音拨号、语音导航、室内设备控制、语音文档检索、简单的听写数据录入等。语音识别技术与其他自然语言处理技术如机器翻译及语音合成技术相结合,可以构建出更加复杂的应用,例如语音到语音的翻译。 语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。.

新!!: 深度学习和语音识别 · 查看更多 »

谷歌大脑

谷歌大脑(Google Brain)是一个深度学习與人工智慧科研项目团队,其母公司为谷歌。.

新!!: 深度学习和谷歌大脑 · 查看更多 »

蒙特利尔大学

蒙特利尔大学(Université de Montréal,简称UdeM)是一所以法语为教学语言的加拿大公立大学,位于加拿大魁北克省蒙特利尔市皇家山脚下。学校由13个学院以及2个著名的附属学院(蒙特利尔工程学院 和 蒙特利尔高等商学院)组成。該校於1878年成立,建校初为同省另一名校拉瓦尔大学在蒙特利尔的分校,随后独立发展成如今的蒙特利尔大学。该校主要以法语为教学语言,除法语外也有少量以英语为教学语言课程。研究生项目可以申请用英语完成。 该大学拥有魁北克最大以及加拿大第三大的赞助研究收入,亦是加拿大顶尖研究型大学联盟U15的成员之一,超过55,000名学生就读于本科和研究生课程使它成为加拿大学生人数第二多的大学。.

新!!: 深度学习和蒙特利尔大学 · 查看更多 »

自然语言处理

自然語言處理(natural language processing,缩写作 NLP)是人工智慧和語言學領域的分支學科。此領域探討如何處理及運用自然語言;自然語言認知則是指讓電腦「懂」人類的語言。 自然語言生成系統把計算機數據轉化為自然語言。自然語言理解系統把自然語言轉化為計算機程序更易于處理的形式。.

新!!: 深度学习和自然语言处理 · 查看更多 »

逻辑推理

邏輯推理中有三種方式:演绎、归纳和溯因。給定前提、結論和規則,而前提導致結論,例如:.

新!!: 深度学习和逻辑推理 · 查看更多 »

递归神经网络

递归神经网络(RNN)是两种人工神经网络的总称。一种是时间递归神经网络(recurrent neural network),又名循环神经网络,另一种是结构递归神经网络(recursive neural network)。时间递归神经网络的神经元间连接构成矩阵,而结构递归神经网络利用相似的神经网络结构递归构造更为复杂的深度网络。RNN一般指代时间递归神经网络。单纯递归神经网络因为无法处理随着递归,权重指数级爆炸或消失的问题(Vanishing gradient problem),难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。 时间递归神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward neural network)接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。手写识别是最早成功利用RNN的研究结果。.

新!!: 深度学习和递归神经网络 · 查看更多 »

Facebook

Facebook(簡稱FB),華人地區有臉--書、臉--譜、面--書、面--簿等中文名稱。是一家位於美國加州-zh-hans:圣马特奥县; zh-hant:聖馬刁郡-门洛帕克市的線上社交网络服务網站。Facebook成立初期原名為thefacebook,名稱的靈感來自美國高中提供給學生包含照片和聯絡資料的通訊錄(或稱花名冊)暱稱「face book」。 除了文字訊息之外,使用者可傳送圖片、影片、貼圖和聲音媒體訊息(現在也可以傳送其他檔案類型如.doc,.docx,.xls,.xlsx等,但是.exe可能會被禁止傳送)給其他使用者,以及透過整合的地圖功能分享使用者的所在位置。Facebook是在2004年2月4日由馬克·扎克伯格與他的哈佛大學室友們所創立。Facebook的會員最初只限於哈佛學生加入,但後來逐漸擴展到其他在波士頓區域的同學也能使用,包括一些常春藤名校、MIT、紐約大學、史丹福大學等。接著逐漸支援讓其他大學和高中學生加入,並在最後開放給任何13歲或以上的人使用。現在Facebook允許任何聲明自己年滿13歲的使用者註冊。 使用者必須註冊才能使用Facebook,註冊後他們可以創建個人檔案、將其他使用者加為好友、傳遞訊息,並在其他使用者更新個人檔案時獲得自動通知。此外使用者也可以加入有相同興趣的群組,這些群組依據工作地點、學校或其他特性分類。使用者亦可將朋友分別加入不同的列表中管理,例如「同事」或「摯友」等。截至2012年9月,Facebook內已有超過十幾億個活躍使用者,其中約有9%的不實使用者。截至2012年,Facebook每年共產生180拍位元組(PB)的資料,並以每24小時0.5拍位元組的速度增加。統計顯示,Facebook上每天上傳3億5千萬張圖片。.

新!!: 深度学习和Facebook · 查看更多 »

IBM

国际商业机器股份有限公司(International Business Machines Corporation,首字母縮略字:IBM,曾译万国商用机器公司)是美國一家跨國科技公司及諮詢公司,總部位於紐約州阿蒙克市。IBM主要客户是政府和企业。IBM生产并销售计算机硬件及软件,并且为系统架构和网络托管提供咨询服务。截止2013年,IBM已在全球拥有12个研究实验室和大量的软件开发基地。IBM雖然是一家商業公司,但在材料、化学、物理等科学领域卻也有很高的成就,利用這些學術研究為基礎,发明很多产品。比较有名的IBM发明的产品包括硬盘、自動櫃員機、通用产品代码、SQL、关系数据库管理系统、DRAM及沃森。.

新!!: 深度学习和IBM · 查看更多 »

Imperial College London

#重定向 伦敦帝国学院 __无目录__.

新!!: 深度学习和Imperial College London · 查看更多 »

Java

Java是一種廣泛使用的電腦程式設計語言,擁有跨平台、物件導向、泛型程式設計的特性,广泛应用于企业级Web应用开发和移动应用开发。 任職於昇陽電腦的詹姆斯·高斯林等人于1990年代初开发Java語言的雛形,最初被命名为Oak,目標設定在家用电器等小型系統的程式语言,應用在电视机、电话、闹钟、烤面包机等家用电器的控制和通訊。由于这些智能化家电的市场需求没有预期的高,Sun公司放弃了该项计划。随着1990年代網際網路的发展,Sun公司看見Oak在網際網路上应用的前景,于是改造了Oak,於1995年5月以Java的名称正式发布。Java伴随着互联网的迅猛发展而发展,逐渐成为重要的网络编程语言。 Java编程语言的风格十分接近C++语言。继承了C++语言面向对象技术的核心,Java舍弃了C++语言中容易引起错误的-zh-hans:指针; zh-hant:指標;-,改以-zh-hans:引用; zh-hant:參照;-取代,同時移除了C++中的--和多重继承特性,改用接口取代,增加垃圾回收器功能。在Java SE 1.5版本中引入了泛型编程、类型安全的枚举、不定长参数和自动装/拆箱特性。昇陽電腦对Java语言的解释是:「Java编程语言是个简单、面向对象、分布式、解释性、健壮、安全与系统无关、可移植、高性能、多线程和动态的语言」 Java不同於一般的编译語言或直譯語言。它首先将源代码编译成字节码,然后依赖各种不同平台上的虚拟机来解释执行字节码,从而实现了“一次编写,到处运行”的跨平台特性。在早期JVM中,这在一定程度上降低了Java程序的运行效率。但在J2SE1.4.2发布后,Java的執行速度有了大幅提升。 与传统型態不同,Sun公司在推出Java時就将其作为开放的技术。全球数以万计的Java开发公司被要求所设计的Java软件必须相互兼容。“Java语言靠群体的力量而非公司的力量”是 Sun公司的口号之一,并获得了广大软件开发商的认同。这与微软公司所倡导的注重精英和封闭式的模式完全不同,此外,微软公司後來推出了与之竞争的.NET平台以及模仿Java的C#语言。後來Sun公司被甲骨文公司併購,Java也隨之成為甲骨文公司的產品。 現時,行動作業系統Android大部分的代碼採用Java 程式設計語言編程。.

新!!: 深度学习和Java · 查看更多 »

Python

Python( ),是一种广泛使用的高级编程语言,属于通用型编程语言,由吉多·范罗苏姆创造,第一版发布于1991年。可以視之為一種改良(加入一些其他程式語言的優點,如物件導向)的LISP。作为一种解释型语言,Python的设计哲学强调代码的可读性和简洁的语法(尤其是使用空格缩进划分代码块,而非使用大括号或者关键词)。相比於C++或Java,Python让开发者能够用更少的代码表达想法。不管是小型还是大型程序,该语言都试图让程序的结构清晰明了。 与Scheme、Ruby、Perl、Tcl等动态类型编程语言一样,Python拥有动态类型系统和垃圾回收功能,能够自动管理内存使用,并且支持多种编程范式,包括面向对象、命令式、函数式和过程式编程。其本身拥有一个巨大而广泛的标准库。 Python 解释器本身几乎可以在所有的操作系统中运行。Python的正式直譯器CPython是用C语言编写的、是一個由社群驱动的自由软件,目前由Python软件基金会管理。.

新!!: 深度学习和Python · 查看更多 »

TensorFlow

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。 "It is machine learning software being used for various kinds of perceptual and language understanding tasks" — Jeffrey Dean, minute 0:47 / 2:17 from Youtube clip目前被50个团队 "It is machine learning software being used for various kinds of perceptual and language understanding tasks" — Jeffrey Dean, minute 0:47 / 2:17 from Youtube clip用于研究和生产许多Google商业产品,如语音辨識、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。 TensorFlow最初由Google Brain团队开发,用于Google的研究和生产,于2015年11月9日在Apache 2.0开源许可证下发布。.

新!!: 深度学习和TensorFlow · 查看更多 »

TIMIT

TIMIT(The DARPA TIMIT Acoustic-Phonetic Continuous Speech Corpus),是由德州仪器、麻省理工学院和合作构建的声学-音素连续语音语料库。TIMIT数据集的语音采样频率为16kHz,一共包含6300个句子,由来自美国八个主要方言地区的630个人每人说出给定的10个句子,所有的句子都在音素级别(phone level)上进行了手动分割,标记。70%的说话人是男性;大多数说话者是成年白人。.

新!!: 深度学习和TIMIT · 查看更多 »

YouTube

YouTube(非官方中文名:油管、優兔、优图)是源自美國的影片分享網站,讓使用者上載、觀看及分享及評論影片。公司於2005年2月15日註冊,網站的口號為「Broadcast Yourself」(表現你自己),網站的標誌意念來自早期電視顯示器(阴极射线管)。 2005年,YouTube由陳士駿、、賈德·卡林姆等人創立,賈德·卡林姆作为网站创始者亦是YouTube最早影片《我在動物園》的上传者。2006年11月,Google公司以16.5億美元收購YouTube,並把其當做一間子公司來經營。Google公司最初对于如何通过YouTube盈利,一直保持非常谨慎的态度。被收購後的YouTube依然風靡全球網路使用者。花旗銀行分析師認爲,以2012年整年計算,Google可能从YouTube获得24亿美元的净收入。无Google账号的用户仍可以直接觀看YouTube中的视频,但无法上传视频及無法留言。註冊用戶則可以無限數量上傳影片。當影片多次被舉報,經過審查,核實後,含有暴力或裸露的内容可能會被定為“18歲以上註冊用户可以觀看”,而色情内容以及侵犯版权的内容(比如仍在上映或发行影碟的电影,电视剧或动画片)會被刪除,另外也禁止特定的買賣主題影片。 加利福尼亚州聖布里諾是YouTube總公司的所在,網站藉由HTML5 WebM影片 來播放各式各樣由上傳者製成的影片內容,包括電影剪輯、電視短片、预告片、音樂錄影帶等,以及其他上傳者自製的業餘影片,如VLOG、原創的影片等。大部分YouTube的上傳者為個人,但也有一些媒體公司如哥倫比亞廣播公司、英國廣播公司、VEVO以及其他團體與YouTube有合作夥伴計劃,上傳自家公司所錄製的影片。 時至今日它已經成為影音網站的翹楚,不單在影音娛樂市場上吸引觀眾,又成功把龐大流量轉變為社群平台,並激發網上創作產業,例如每年YouTube名人的演出等收看人數與廣告收入都相當驚人,同時企業則申請官方帳號用作廣告與線上傳媒渠道、NGO的推廣公關等等,成為又一段矽谷文化新創成功的經營典範,當然也是因為Google的硬體支援,才能承受龐大的資訊量而發展起來,還有恰好的創業時機換來的知名度與其爆紅效應。儘管目前有大量用戶支持,但同類型網站激烈競爭下內容生產更變得重要,因此近幾年眼光開始轉向網上知名製作者,YouTube對這些擁有數百萬訂閱的人十分器重,並聯繫博主來提供獎盃回饋與官方聚會活動邀請、以及更高的薪資分紅等等(這類職業化的博客經營者被稱為Youtuber),追求高點擊率已經成為許多人獲取財富的方式之一,第一個突破十億點閱率的男歌手是PSY(Gangnam Style),第一個突破十億點閱率的女歌手是姬蒂·佩芮。2015年9月,PewDiePie成为第一个观看次数超过100亿次的YouTube频道。 2015年7月17日,谷歌发布截至6月30日的2015财年第二季度财报显示,现在YouTube有超过10亿用户,世界上所有上网的人群中几乎有三分之一的人每天在YouTube合计消费几亿个小时的时间观看视频,现在YouTube的观看时间同比增长60%,这是几年来最高增长水平。 2017年6月6日,《2017年BrandZ最具价值全球品牌100强》公布,YouTube名列第65位。.

新!!: 深度学习和YouTube · 查看更多 »

杰弗里·辛顿

杰弗里·埃弗里斯特·辛顿 FRS(Geoffrey Everest Hinton)()是一位英国出生的加拿大计算机学家和心理学家,以其在神经网络方面的贡献闻名。辛顿是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者。.

新!!: 深度学习和杰弗里·辛顿 · 查看更多 »

梯度消失问题

在机器学习中,梯度消失问题是一种在使用梯度下降法和反向传播训练人工神经网络时发现的难题。在这类训练方法的每个迭代中,神经网络权重的更新值与误差函数梯度成比例,然而在某些情况下,梯度值会几乎消失,使得权重无法得到有效更新,甚至神经网络可能完全无法继续训练。举例来说,传统的激活函数,如双曲正切函数的梯度值在(0, 1)范围内,而反向传播通过链式法则来计算梯度。 这种做法计算前一层的梯度时,相当于将n个这样小的数字相乘,这就使梯度(误差信号)随n呈指数下降,导致前面的层训练非常缓慢。 Category:人工神经网络 Category:机器学习.

新!!: 深度学习和梯度消失问题 · 查看更多 »

沃森 (人工智能程序)

沃森是能够使用自然语言来回答问题的人工智能系统,由IBM公司的首席研究员David Ferrucci所领导的DeepQA计划小组开发并以该公司创始人托马斯·J·沃森的名字命名。.

新!!: 深度学习和沃森 (人工智能程序) · 查看更多 »

演绎推理

演绎推理(Deductive Reasoning)在传统的亚里士多德逻辑中是「结论,可从叫做‘前提’的已知事实,‘必然地’得出的推理」。如果前提为真,则结论必然为真。这区别于溯因推理和归纳推理:它们的前提可以预测出高概率的结论,但是不确保结论为真。 “演绎推理”还可以定义为结论在普遍性上不大于前提的推理,或「结论在确定性上,同前提一样」的推理。.

新!!: 深度学习和演绎推理 · 查看更多 »

激活函数

在计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到开(1)或关(0)输出的数字网络激活函数。这与神经网络中的线性感知机的行为类似。然而,只有非線性激活函數才允許這種網絡僅使用少量節點來計算非平凡問題。 在人工神經網絡中,這個功能也被稱為傳遞函數。.

新!!: 深度学习和激活函数 · 查看更多 »

机器学习

机器学习是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。显然,机器学习是实现人工智能的一个途径,即以机器学习为手段解决人工智能中的问题。机器学习在近30多年已发展为一门多领域交叉学科,涉及概率论、统计学、逼近论、、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。 机器学习已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人等领域。.

新!!: 深度学习和机器学习 · 查看更多 »

最大似然估计

在统计学中,最大似然估计(maximum likelihood estimation,缩写为MLE),也称最大概似估计,是用来估计一个概率模型的参数的一种方法。.

新!!: 深度学习和最大似然估计 · 查看更多 »

支持向量机

在机器学习中,支持向量机(support vector machine,常简称為SVM,又名支持向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。 除了进行线性分类之外,SVM还可以使用所谓的有效地进行非线性分类,将其输入隐式映射到高维特征空间中。 当数据未被标记时,不能进行监督式学习,需要用非監督式學習,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支持向量机改进的聚类算法被称为支持向量聚类Ben-Hur, Asa, Horn, David, Siegelmann, Hava, and Vapnik, Vladimir; "Support vector clustering" (2001) Journal of Machine Learning Research, 2: 125–137.

新!!: 深度学习和支持向量机 · 查看更多 »

扬·勒丘恩

扬·勒丘恩(Yann Le Cun,Yann LeCun,)是一位计算机科学家,他在机器学习、计算机视觉、和計算神經科學等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用卷积神经网络 (CNN),他也被称为卷积网络之父。他同Léon Bottou和Patrick Haffner等人一起创建了DjVu图像压缩技术。他同Léon Bottou一起开发了Lush语言。.

新!!: 深度学习和扬·勒丘恩 · 查看更多 »

托斯坦·威泽尔

托斯坦·威泽尔(Torsten Nils Wiesel,),瑞典神經科學家,與大衛·休伯爾(David H. Hubel)由於對視覺系統的訊息處理過程之研究,而和研究左右腦半球的羅傑·斯佩里(Roger W. Sperry)共同獲得1981年的諾貝爾生理學或醫學獎。.

新!!: 深度学习和托斯坦·威泽尔 · 查看更多 »

重定向到这里:

深度神经网络

传出传入
嘿!我们在Facebook上吧! »