徽标
联盟百科
通讯
下载应用,请到 Google Play
新! 在您的Android™设备上下载联盟百科!
下载
比浏览器更快的访问!
 

人工神经网络

指数 人工神经网络

人工神经网络(Artificial Neural Network,ANN),简称神经网络(Neural Network,NN)或類神經網絡,在机器学习和认知科学领域,是一种模仿生物神经网络(动物的中樞神經系統,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统,通俗的講就是具備學習功能。现代神经网络是一种非线性统计性数据建模工具。典型的神经网络具有以下三个部分:.

50 关系: 卷积神经网络反向传播算法多层感知器大脑中樞神經系統主成分分析专家系统人工智能強健性 (電腦科學)信号处理唐纳德·赫布内积函数前馈神经网络CMOS線性回歸线性分类器统计学生物神经网络無監督式學習網路監督式學習網路联结主义非線性系統非线性非監督式學習計算神經科學马文·闵斯基認知心理學计算模型认知科学语音识别赫布理论邏輯迴歸長期增強作用递归神经网络权重标量概率模型模擬信號沃伦·麦卡洛克深度学习机器学习机器视觉支持向量机感知器感知机数学模型数字化扬·勒丘恩手写识别

卷积神经网络

卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网络能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网络在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网络,卷积神经网络需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。.

新!!: 人工神经网络和卷积神经网络 · 查看更多 »

反向传播算法

反向传播(Backpropagation,缩写为BP)是“误差反向传播”的简称,是一种与最优化方法(如梯度下降法)结合使用的,用来训练人工神经网络的常见方法。该方法对网络中所有权重计算的梯度。这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。 反向传播要求有对每个输入值想得到的已知输出,来计算损失函数梯度。因此,它通常被认为是一种監督式學習方法,虽然它也用在一些无监督网络(如)中。它是多层前馈网络的的推广,可以用链式法则对每层迭代计算梯度。反向传播要求(或“节点”)的激励函数可微。.

新!!: 人工神经网络和反向传播算法 · 查看更多 »

多层感知器

多层感知器(Multilayer Perceptron,缩写MLP)是一种前向结构的人工神经网络,映射一组输入向量到一组输出向量。MLP可以被看作是一个有向图,由多个的节点层所组成,每一层都全连接到下一层。除了输入节点,每个节点都是一个带有非线性激活函数的神经元(或称处理单元)。一种被称为反向传播算法的监督学习方法常被用来训练MLP。 MLP是感知器的推广,克服了感知器不能对线性不可分数据进行识别的弱点。.

新!!: 人工神经网络和多层感知器 · 查看更多 »

大脑

綠色是顳葉,藍色是額葉,黃色是頂葉,紅色是枕葉。 大脑(cerebrum),是脑与间脑。在醫學及解剖学上,多用大脑一词來指代端脑。 端脑有左右两个大脑半球(端脑半球)。将两个半球隔开的是称为大脑纵隔的沟壑,两个半球除了脑梁与透明中隔相连以外完全左右分开。半球表面布满脑沟,沟与沟之间所夹细长的部分称为脑回。脑沟并非是在脑的成长过程中随意形成,什么形态出现在何处都完全有规律(其深度和弯曲度因人稍有差异)。每一条脑沟在解剖学上都有专有名称(nomina anatomica)。脑沟与脑回的形态基本左右半球对称,是对脑进行分叶和定位的重要标志。有关大脑两半球功能单侧化的研究表明,大多数人的言语活动中枢在大脑左半球。比较重要的脑沟有外侧沟 (lateral sulcus)起于半球下面,行向后上方,至上外侧面;中央沟 (central sulcus)起于半球上绿中点稍后方,斜向前下方,下端与外侧沟隔一脑回,上端延伸至半球内侧面;顶枕沟(parietooccipital sulcus)位于半球内侧面后部,自下向上。在外侧沟上方和中央沟以前的部分为额叶;外侧沟以下的部分为颞叶;枕叶位于半球后部,其前界在内侧面为顶枕沟,在上外侧面的界限是自顶枕沟至枕前切迹(在枕叶后端前方约4cm处)的连线;顶叶为外侧沟上方、中央沟后方、枕叶以前的部分;岛叶呈三角形岛状,位于外侧沟深面,被额、顶、颞叶所掩盖,与其他部分不同布满细小的浅沟(非脑沟)。 左右大脑半球有各自的称为侧脑室的腔隙。侧脑室与间脑的第三脑室,以及小脑和延脑及脑桥之间的第四脑室之间有孔道连通。脑室中的脉络丛产生脑的液体称为脑脊液。脑脊液在各脑室与蛛网膜下腔之间循环,如果脑室的通道阻塞,脑室中的脑脊液积多,将形成脑积水。 广义的大脑的脑神经有,端脑出发的嗅神经,间脑出发的视神经。 大脑的断面分为白质与灰白质。端脑的灰白质是指表层的数厘米厚的称为大脑皮质的一层,大脑皮质是神经细胞聚集的部分,具有六层的构造,含有复杂的回路是思考等活动的中枢。相对大脑皮质白质又称为大脑髓质。 间脑由丘脑与下丘脑构成。丘脑与大脑皮质,脑干,小脑,脊髓等联络,负责感觉的中继,控制运动等。下丘脑与保持身体恒常性,控制自律神经系统,感情等相关。 大腦的神經細胞只要在1.5分鐘內得不到氧氣,人就會失去知覺;而5、6分鐘後仍缺氧,神經細胞便會陸續死去。.

新!!: 人工神经网络和大脑 · 查看更多 »

中樞神經系統

中枢神经系统(英文:central nervous system,縮寫:CNS)是神经系统中神经细胞集中的结构,在脊椎动物包括腦和脊髓;在高等无脊椎动物如环节动物和昆虫等,则主要包括腹神经索和一系列的神经节。 人的中枢神经系统构造最复杂而完整,特别是大脑半球的皮层获得高度的发展,成为神经系统最重要和高级的部分,保证了机体各器官的协调活动,以及机体与外界环境间的统一和协调。 中樞神經系統與周围神经系统組成了神經系統,控制了生物的行為。 整個中樞神經系統位於背腔,腦在顱腔,脊髓在脊椎管;顱骨保護腦,脊椎保護脊髓。.

新!!: 人工神经网络和中樞神經系統 · 查看更多 »

主成分分析

在多元统计分析中,主成分分析(Principal components analysis,PCA)是一種分析、簡化數據集的技術。主成分分析经常用于减少数据集的维数,同时保持数据集中的对方差贡献最大的特征。这是通过保留低阶主成分,忽略高阶主成分做到的。这样低阶成分往往能够保留住数据的最重要方面。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 主成分分析由卡爾·皮爾遜於1901年發明,用於分析數據及建立數理模型。其方法主要是通過對共變異數矩陣進行特征分解,以得出數據的主成分(即特征向量)與它們的權值(即特征值)。PCA是最簡單的以特征量分析多元統計分布的方法。其結果可以理解為對原數據中的方差做出解釋:哪一個方向上的數據值對方差的影響最大?換而言之,PCA提供了一種降低數據維度的有效辦法;如果分析者在原數據中除掉最小的特征值所對應的成分,那麼所得的低維度數據必定是最優化的(也即,這樣降低維度必定是失去訊息最少的方法)。主成分分析在分析複雜數據時尤為有用,比如人臉識別。 PCA是最简单的以特征量分析多元统计分布的方法。通常情况下,这种运算可以被看作是揭露数据的内部结构,从而更好的解释数据的变量的方法。如果一个多元数据集能够在一个高维数据空间坐标系中被显现出来,那么PCA就能够提供一幅比较低维度的图像,这幅图像即为在讯息最多的点上原对象的一个‘投影’。这样就可以利用少量的主成分使得数据的维度降低了。 PCA跟因子分析密切相关,并且已经有很多混合这两种分析的统计包。而真实要素分析则是假定底层结构,求得微小差异矩阵的特征向量。.

新!!: 人工神经网络和主成分分析 · 查看更多 »

专家系统

专家系统是早期人工智能的一个重要分支,它可以看作是一类具有专门知识和经验的计算机智能程序系统,一般采用人工智能中的知识表示和知识推理技术来模拟通常由领域专家才能解决的复杂问题。 一般来说,专家系统.

新!!: 人工神经网络和专家系统 · 查看更多 »

人工智能

人工智能(Artificial Intelligence, AI)亦稱機器智能,是指由人製造出來的機器所表現出來的智能。通常人工智能是指通過普通電腦程式的手段實現的人類智能技術。該詞也指出研究這樣的智能系統是否能夠實現,以及如何實現科學領域。同時如此,人類的數量開始收斂及功能逐漸被其取代。 一般教材中的定义领域是“智能主体(intelligent agent)的研究与设计”,智能主体是指一个可以观察周遭环境并作出行动以达致目标的系统。约翰·麦卡锡于1955年的定义是「制造智能机器的科学与工程。」 人工智能的研究是高度技术性和专业的,各分支领域都是深入且各不相通的,因而涉及範圍極廣。人工智能的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。 AI的核心问题包括建構能夠跟人類似甚至超越的推理、知识、规划、学习、交流、感知、移动和操作物体的能力等。強人工智能目前仍然是该领域的长远目标。目前強人工智慧已經有初步成果,甚至在一些影像辨識、語言分析、棋類遊戲等等單方面的能力達到了超越人類的水平,而且人工智慧的通用性代表著,能解決上述的問題的是一樣的AI程式,無須重新開發算法就可以直接使用現有的AI完成任務,與人類的處理能力相同,但達到具備思考能力的統合強人工智慧還需要時間研究,比较流行的方法包括统计方法,计算智能和传统意义的AI。目前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基於仿生學、認知心理學,以及基于概率论和经济学的演算法等等也在逐步探索當中。.

新!!: 人工神经网络和人工智能 · 查看更多 »

強健性 (電腦科學)

#重定向 健壮性 (计算机科学).

新!!: 人工神经网络和強健性 (電腦科學) · 查看更多 »

信号处理

在计算机科学、药物分析、电子学等学科中,信号处理(signal processing)是指对信号表示、变换、运算等进行处理的过程。 信号处理可以用于沟通人类之间,或人与机器之间的联系;用以探测我们周围的环境,并揭示出那些不易观察到的状态和构造细节,以及用来控制和利用能源与信息.例如,我们可能希望分开两个或多个多少有些混在一起的信号,或者想增强信号模型中的某些成分或参数。 几十年来,信号处理在诸如语音与資料通訊、生物医学工程、声学、声呐、雷达、地震、石油勘探、仪器仪表、机器人、日用电子产品以及其它很多的这样一些广泛的领域内起着关键的作用。.

新!!: 人工神经网络和信号处理 · 查看更多 »

唐纳德·赫布

唐纳德·赫布,FRS(Donald Olding Hebb,),加拿大心理学家,在神经心理学领域有重要贡献,致力于研究神经元在心理过程中的作用。他被认为是神经心理学与神经网络之父。 赫布出生于加拿大新斯科舍省切斯特(Chester)。曾就读于戴尔豪斯大学并于1925年获文学士学位。毕业后回家乡中学教书。后来他对西格蒙德·弗洛伊德、威廉·詹姆士、约翰·华生等人的著作产生兴趣,并于1928年进入麦吉尔大学心理学系,成为一名在职研究生。在这里他阅读了查尔斯·谢灵顿、伊万·巴甫洛夫等人的作品,并以优等成绩毕业。1934年进入芝加哥大学学习,师从行为主义心理学家卡尔·拉什利(Karl Lashley)。后跟随拉什利前往哈佛大学,并于1936年获博士学位。 1937年他返回加拿大,在蒙特利尔神经科学研究所(Montreal Neurological Institute)与神经科学家怀尔德·彭菲尔德(Wilder Penfield)一同从事研究。1939年赴女王大学任教。在这里他与肯内特·威廉姆斯(Kenneth Williams)一同发明了用来测试老鼠智力的赫布-威廉姆斯迷宫(Hebb-Williams maze),并证明了“老鼠幼年时期的经历对其成年后解决问题的能力有持久性的影响”,这一结论成为了发展心理学中的重要原理。1942年起他前往耶基斯国家灵长类研究中心(Yerkes National Primate Research Center)工作,并再次与拉什利合作,从事黑猩猩的情绪研究。1947年回到麦吉尔大学任心理学教授,并于次年出任系主任。1949年他出版《行为的组织》(The Organization of Behavior)一书,提出了知名的赫布理论。1970年担任麦吉尔大学校长。1972年退休,并继续担任荣休教授。1980年又回到戴尔豪斯大学任心理学荣休教授。1985年逝世。.

新!!: 人工神经网络和唐纳德·赫布 · 查看更多 »

内积

#重定向 点积.

新!!: 人工神经网络和内积 · 查看更多 »

函数

函數在數學中為兩集合間的一種對應關係:輸入值集合中的每項元素皆能對應唯一一項輸出值集合中的元素。例如實數x對應到其平方x2的關係就是一個函數,若以3作為此函數的輸入值,所得的輸出值便是9。 為方便起見,一般做法是以符號f,g,h等等來指代一個函數。若函數f以x作為輸入值,則其輸出值一般寫作f(x),讀作f of x。上述的平方函數關係寫成數學式記為f(x).

新!!: 人工神经网络和函数 · 查看更多 »

前馈神经网络

前馈神经网络(英文:Feedforward Neural Network),為人工智能領域中,最早发明的簡單人工神经网络类型。在它内部,参数从输入层向输出层单向传播。有異於递归神经网络,它的内部不会构成有向环。.

新!!: 人工神经网络和前馈神经网络 · 查看更多 »

CMOS

#重定向 互補式金屬氧化物半導體.

新!!: 人工神经网络和CMOS · 查看更多 »

線性回歸

在统计学中,线性回归(Linear regression)是利用称为线性回归方程的最小平方函數对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。) 在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。 线性回归是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。这是因为线性依赖于其未知参数的模型比非线性依赖于其未知参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。 线性回归有很多实际用途。分为以下两大类:.

新!!: 人工神经网络和線性回歸 · 查看更多 »

线性分类器

在機器學習領域,分類的目標是指將具有相似特徵的对象聚集。而一個線性分類器則透過特徵的線性組合來做出分類決定,以達到此種目的。对象的特征通常被描述为特征值,而在向量中则描述为特征向量。.

新!!: 人工神经网络和线性分类器 · 查看更多 »

统计学

统计学是在資料分析的基础上,研究测定、收集、整理、归纳和分析反映數據資料,以便给出正确訊息的科學。這一门学科自17世纪中叶产生并逐步发展起来,它廣泛地應用在各門學科,從自然科学、社會科學到人文學科,甚至被用於工商業及政府的情報決策。隨著大数据(Big Data)時代來臨,統計的面貌也逐漸改變,與資訊、計算等領域密切結合,是資料科學(Data Science)中的重要主軸之一。 譬如自一組數據中,可以摘要並且描述這份數據的集中和離散情形,這個用法稱作為描述統計學。另外,觀察者以數據的形態,建立出一個用以解釋其隨機性和不確定性的數學模型,以之來推論研究中的步驟及母體,這種用法被稱做推論統計學。這兩種用法都可以被稱作為應用統計學。數理統計學则是討論背後的理論基礎的學科。.

新!!: 人工神经网络和统计学 · 查看更多 »

生物神经网络

生物神经网络(Biological Neural Networks)一般指生物的神经元、细胞、触点等组成的网络,用于产生生物的意识,帮助生物进行思考和行动。.

新!!: 人工神经网络和生物神经网络 · 查看更多 »

無監督式學習網路

無監督式學習網路(Unsupervised Learning Network)是人工智慧網路的一種演算法(algorithm),其目的是去對原始資料進行分類,以便瞭解資料內部結構。有別於監督式學習網路,無監督式學習網路在學習時並不知道其分類結果是否正確,亦即沒有受到監督式增強(告訴它何種學習是正確的)。其特點是僅對此種網路提供輸入範例,而它會自動從這些範例中找出其潛在類別規則。當學習完畢並經測試後,也可以將之應用到新的案例上。.

新!!: 人工神经网络和無監督式學習網路 · 查看更多 »

監督式學習網路

監督式學習網路(Supervised Learning Network),從問題領域中提供訓練範例,包含輸入資料與輸出資料。 網路從中學習輸入資料與輸出資料的內在對映規則。有如老師指導學生對問題做正確的回答。常應用於圖形辨認和預測領域。如倒傳遞神經網路(Back Propagation Network)。.

新!!: 人工神经网络和監督式學習網路 · 查看更多 »

联结主义

联结主义是統合了认知心理学、人工智能和心理哲学领域的一种理论。联结主义建立了心理或行为现象模型的顯現模型—單純元件的互相連結網路。联结主义有许多不同的形式,但最常见的形式利用了神经网络模型。.

新!!: 人工神经网络和联结主义 · 查看更多 »

非線性系統

在物理科學中,如果描述某個系統的方程其輸入(自變數)與輸出(應變數)不成正比,則稱為非線性系統。由於自然界中大部分的系統本質上都是非線性的,因此許多工程師、物理學家、數學家和其他科學家對於非線性問題的研究都極感興趣。非線性系統和線性系統最大的差別在於,非線性系統可能會導致混沌、不可預測,或是不直觀的結果。 一般來說,非線性系統的行為在數學上是用一組非線性聯立方程來描述的。非線性方程裡含有由未知數構成的非一次多項式;換句話說,一個非線性方程並不能寫成其未知數的線性組合。而非線性微分方程,則是指方程裡含有未知函數及其導函數的乘冪不等於一的項。在判定一個方程是線性或非線性時,只需考慮未知數(或未知函數)的部分,不需要檢查方程中是否有已知的非線性項。例如在微分方程中,若所有的未知函數、未知導函數皆為一次,即使出現由某個已知變數所構成的非線性函數,我們仍稱它是一個線性微分方程。 由於非線性方程非常難解,因此我們常常需要以線性方程來近似一個非線性系統(線性近似)。這種近似對某範圍內的輸入值(自變數)是很準確的,但線性近似之後反而會無法解釋許多有趣的現象,例如孤波、混沌和奇點。這些奇特的現象,也常常讓非線性系統的行為看起來違反直覺、不可預測,或甚至混沌。雖然「混沌的行為」和「隨機的行為」感覺很相似,但兩者絕對不能混為一談;也就是說,一個混沌系統的行為絕對不是隨機的。 舉例來說,許多天氣系統就是混沌的,微小的擾動即可導致整個系統產生各種不同的複雜結果。就目前的科技而言,這種天氣的非線性特性即成了長期天氣預報的絆腳石。 某些書的作者以非線性科學來代指非線性系統的研究,但也有人不以為然:.

新!!: 人工神经网络和非線性系統 · 查看更多 »

非线性

#重定向 非線性系統.

新!!: 人工神经网络和非线性 · 查看更多 »

非監督式學習

非監督式學習是一種機器學習的方式,並不需要人力來輸入標籤。它是監督式學習和強化學習等策略之外的一種選擇。在監督式學習中,典型的任務是分類和迴歸分析,且需要使用到人工預先準備好的範例(base)。 一個常見的非監督式學習是数据聚类。在人工神經網路中,生成對抗網絡(GAN)、自組織映射(SOM)和適應性共振理論(ART)則是最常用的非監督式學習。 ART模型允許叢集的個數可隨著問題的大小而變動,並讓使用者控制成員和同一個叢集之間的相似度分數,其方式為透過一個由使用者自定而被稱為警覺參數的常數。ART也用於模式識別,如自動目標辨識和數位信號處理。第一個版本為"ART1",是由卡本特和葛羅斯柏格所發展的。.

新!!: 人工神经网络和非監督式學習 · 查看更多 »

計算神經科學

計算神經科學(Computational neuroscience)為一種跨領域科學,包含神經科學、認知科學、資訊工程、電腦科學、物理學及數學。 這個詞首次出現於1985年,由於加州卡莫市主辦的會議中提出。其後出現的類似名詞包含神经模型、脑理论及神经网络。後來相關的解釋定義皆收錄於麻省理工學院出版(1990)之《計算神經科學》(Computational Neuroscience )一書內。有關此領域的研究最早可追溯自艾倫·勞埃德·霍奇金與安德魯·赫胥黎、大衛·休伯爾與托斯坦·威澤爾,以及大衛·馬爾等人。以及艾倫·勞埃德·霍奇金與安德魯·赫胥黎發明,首次成功的將動作電位數值化。大衛·休伯爾及托斯坦·威澤爾則發現主要視覺皮質區(primary visual cortex),此區負責處理由虹膜傳來的第一手訊息,將接收區與彙整區做出整理(大衛·休伯爾與托斯坦·威澤爾, 1962)。.

新!!: 人工神经网络和計算神經科學 · 查看更多 »

马文·闵斯基

文·李·明斯基(Marvin Lee Minsky,),生於美国紐約州紐約市,美国科學家,專長於認知科學與人工智能领域,麻省理工学院人工智能实验室的创始人之一,著有几部人工智能和哲学方面的作品。1969年,因為在人工智能領域的貢獻,獲得圖靈獎。.

新!!: 人工神经网络和马文·闵斯基 · 查看更多 »

認知心理學

认知心理学(英語:Cognitive psychology)是最新的心理學分支之一,從1950年代至1960年代間才發展出來的。1956年被认为是认知心理学史上的重要年份。这一年几项心理学研究都体现了心理学的信息加工观点。如Chomsky的语言理论和Newell和Simon的“通用问题解决者”模型。「認知心理學」第一次在出版物出現是在1967年Ulrich Neisser的新書。而唐纳德·布罗德本特於1958年出版的《知觉与傳播》一書則為認知心理學取向立下了重要基礎。此後,認知心理取向的重點便在唐纳德·布罗德本特所指出的認知的訊息處理模式--一種以心智處理來思考與推理的模式。因此,思考與推理在人類大腦中的運作便像電腦軟體在電腦裏運作相似。認知心理學理論時常談到輸入、表徵、計算或處理,以及輸出等概念。 這種理解心智運作的方式在過去數十年變得非常普遍。這些比喻常見於社会心理学、人格心理学、变态心理学和发展心理学中。认知理论的应用在最近並廣及許多动物认知研究的比较心理学领域。 信息處理的认知功能取向最近正被一些心理学新的研究取向所質疑,例如動力系統取向以及哲學中心體合一之觀點。 由於電腦的隱喻和使用,認知心理學在1960年至1970年間得到許多人工智慧及其它相關領域研究成果的助益。事實上,它已發展成為一個跨領域的認知科學,此學門整合了一系列不同取向關於心靈與心智處理的研究。 認知心理學與從前心理研究取向有不同之处。認知心理學使用系統化的科學方法,拒絕接受內省的研究方式,与弗洛依德心理學的現象學研究方法不同。且認知心理學認定內在心理狀態的存在(如信仰、欲望和动机),与行为主义心理學不同。.

新!!: 人工神经网络和認知心理學 · 查看更多 »

计算模型

计算模型(computational model)是计算科学中的一个数学模型,它使用大量的計算資源来用计算机模拟研究一个复杂系统的行为。被研究的系统通常是一个复杂的非線性系统,这种系统不易取得简单、直观的解析解。相比于推导数学分析来解决问题,它是通过在计算机中调整系统参数并研究实验结果的差异来完成模型。模型的操作理论可以从这些实验来推断/推导。 常见的计算模型有天气预报模型、地球模拟器模型、飛行模擬器模型、分子蛋白质折叠模型和神经网络模型。.

新!!: 人工神经网络和计算模型 · 查看更多 »

认知科学

認知科學(Cognitive Science),是一門研究訊息如何在大腦中形成以及轉錄過程的跨領域學科。它研究何为认知,认知有何用途以及它如何工作,研究信息如何表现为感觉、语言、注意、推理和情感。其研究領域包括心理學、哲學、人工智能、神經科學、學習、語言學、人類學、社會學和教育學。它跨越相當多層次的分析,從低層次的學習和決策機制,到高層次的邏輯和策劃能力,以及腦部神經電路。「認知科學」這個詞是在1973年評注一部關於當時人工智慧最新研究的著作時創造的。同10年內,《認知科學期刊》和相繼於美國加州成立。认知科学的基本要义是:理解思维的最好途径,是认识脑中的代表性结构,以及这些结构中发生的计算性过程。.

新!!: 人工神经网络和认知科学 · 查看更多 »

语音识别

语音识别(speech recognition;語音辨識/言語辨別)技术,也被称为自动语音识别(Automatic Speech Recognition, ASR)、電腦語音識別(Computer Speech Recognition)或是語音轉文本識別(Speech To Text, STT),其目标是以電腦自動将人类的语音内容转换为相應的文字。与及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。 语音识别技术的应用包括语音拨号、语音导航、室内设备控制、语音文档检索、简单的听写数据录入等。语音识别技术与其他自然语言处理技术如机器翻译及语音合成技术相结合,可以构建出更加复杂的应用,例如语音到语音的翻译。 语音识别技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。.

新!!: 人工神经网络和语音识别 · 查看更多 »

赫布理论

赫布理论(Hebbian theory)是一个神经科学理论,解释了在学习的过程中脑中的神经元所发生的变化。赫布理论描述了突触可塑性的基本原理,即突触前神经元向突触后神经元的持续重复的刺激,可以导致突触传递效能的增加。这一理论由唐纳德·赫布于1949年提出,又被称为赫布定律(Hebb's rule)、赫布假说(Hebb's postulate)、细胞结集理论(cell assembly theory)等。他如此表述这一理论: 这一理论经常会被总结为“一起激发的神经元连在一起”(Cells that fire together, wire together)。但是,这个解释并不完整,赫布强调说,神经元"A"必须对神经元"B"的激发“作出了一定贡献”,因此,神经元"A"的激发必须在神经元"B"之先,而不能同时激发。赫布理论中的这一部分研究,后来被称作,表明突触可塑性需要一定的时间延迟。赫布理论可以用于解释“联合学习”(associative learning),在这种学习中,由对神经元的重复刺激,使得神经元之间的突触强度增加。这样的学习方法被称为赫布型学习(Hebbian learning)。赫布理论也成为了的生物学基础。.

新!!: 人工神经网络和赫布理论 · 查看更多 »

邏輯迴歸

逻辑回归(Logistic regression 或logit regression),即逻辑模型(Logit model,也译作“评定模型”、“分类评定模型”)是离散选择法模型之一,属于多重变量分析范畴,是社会学、生物统计学、临床、数量心理学、计量经济学、市场营销等统计实证分析的常用方法。.

新!!: 人工神经网络和邏輯迴歸 · 查看更多 »

長期增強作用

長期增強作用(Long-term potentiation,LTP)又稱长时程增强作用、長期增益效應,是由于同步刺激两个神经元而发生在两个神经元信号传输中的一种持久的增强现象。这是与突触可塑性——突触改变强度的能力相关的几种现象之一。由于记忆被认为是由突触强度的改变来编码的,LTP被普遍视为构成学习与记忆基础的主要分子机制之一。 LTP是1966年泰耶·勒莫在兔海马体中发现的,一直以来是研究的热门主题。许多现代的LTP研究试图更好地了解其生物学基本原理,而其他一些研究则以探索LTP和行为学习之间的因果关系为目标。还有一些则试图开发通过提高LTP改善学习和记忆的方法,不管是采用药物手段还是其他手段。LTP还是临床研究的主题,比如在阿兹海默病和领域。.

新!!: 人工神经网络和長期增強作用 · 查看更多 »

递归神经网络

递归神经网络(RNN)是两种人工神经网络的总称。一种是时间递归神经网络(recurrent neural network),又名循环神经网络,另一种是结构递归神经网络(recursive neural network)。时间递归神经网络的神经元间连接构成矩阵,而结构递归神经网络利用相似的神经网络结构递归构造更为复杂的深度网络。RNN一般指代时间递归神经网络。单纯递归神经网络因为无法处理随着递归,权重指数级爆炸或消失的问题(Vanishing gradient problem),难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。 时间递归神经网络可以描述动态时间行为,因为和前馈神经网络(feedforward neural network)接受较特定结构的输入不同,RNN将状态在自身网络中循环传递,因此可以接受更广泛的时间序列结构输入。手写识别是最早成功利用RNN的研究结果。.

新!!: 人工神经网络和递归神经网络 · 查看更多 »

权重

權即由測量值精度的不同在平差計算中所取的權重不同。精度越高,權越大。.

新!!: 人工神经网络和权重 · 查看更多 »

标量

--(Scalar),又称--,是只有大小,没有方向,可用實數表示的一個量,實際上純量就是實數,純量這個稱法只是為了區別與向量的差別。标量可以是負數,例如溫度低於冰點。与之相对,向量(又称--)既有大小,又有方向。 在物理学中,标量是在坐标变换下保持不变的物理量。例如,欧几里得空间中两点间的距离在坐标变换下保持不变,相对论四维时空中在坐标变换下保持不变。与此相对的矢量,其分量在不同的坐标系中有不同的值,例如速度。标量可被用作定义向量空间。.

新!!: 人工神经网络和标量 · 查看更多 »

概率模型

概率模型(Statistical Model,也稱為Probabilistic Model)是用来描述不同随机变量之间关系的数学模型,通常情况下刻画了一个或多个随机变量之间的相互非确定性的概率关系。从数学上讲,该模型通常被表达为(Y,P),其中Y是观测集合用来描述可能的观测结果,P是Y对应的概率分布函数集合。若使用概率模型,一般而言需假设存在一个确定的分布P生成观测数据Y。因此通常使用统计推断的办法确定集合P中谁是数据产生的原因。 大多数统计检验都可以被理解为一种概率模型。例如,一个比较两组数据均值的学生t检验可以被认为是对该概率模型参数是否为0的检测。此外,检验与模型的另一个共同点则是两者都需要提出假设并且误差在模型中常被假设为正态分布。.

新!!: 人工神经网络和概率模型 · 查看更多 »

模擬信號

模拟信号(analog signal),是指在时域上数学形式为连续函数的信号。与模拟信号对应的是数字信号,后者采取分立的逻辑值,而前者可以取得连续值。模拟信号的概念常常在涉及电的领域中被使用,不过经典力学、气动力学(pneumatic)、水力学等学科有时也会使用模拟信号的概念。.

新!!: 人工神经网络和模擬信號 · 查看更多 »

沃伦·麦卡洛克

沃伦·麦卡洛克(November 16, 1898 – September 24, 1969)是美国神经科学家和控制论学者。.

新!!: 人工神经网络和沃伦·麦卡洛克 · 查看更多 »

深度学习

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。深度学习的好处是用非监督式或的特征学习和分层特征提取高效算法来替代手工获取。 表征学习的目标是寻求更好的表示方法并建立更好的模型来从大规模未标记数据中学习这些表示方法。表示方法来自神经科学,并松散地建立在類似神经系统中的信息处理和对通信模式的理解上,如神经编码,试图定义拉動神经元的反应之间的关系以及大脑中的神经元的电活动之间的关系。 至今已有數种深度学习框架,如深度神经网络、卷积神经网络和和递归神经网络已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并取得了极好的效果。 另外,「深度学习」已成為類似術語,或者说是神经网络的品牌重塑。.

新!!: 人工神经网络和深度学习 · 查看更多 »

机器学习

机器学习是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。显然,机器学习是实现人工智能的一个途径,即以机器学习为手段解决人工智能中的问题。机器学习在近30多年已发展为一门多领域交叉学科,涉及概率论、统计学、逼近论、、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多推论问题属于无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。 机器学习已广泛应用于数据挖掘、计算机视觉、自然语言处理、生物特征识别、搜索引擎、医学诊断、检测信用卡欺诈、证券市场分析、DNA序列测序、语音和手写识别、战略游戏和机器人等领域。.

新!!: 人工神经网络和机器学习 · 查看更多 »

机器视觉

机器视觉是配備有感測視覺儀器(如自動對焦相機或感測器)的檢測機器,其中光學檢測儀器占有比重非常高,可用於檢測出各種產品的缺陷,或者用與判斷並選擇出物體,或者用來測量尺寸...等,應用在自動化生產線上對物料進行校準與定位。是计算机视觉中最具有产业化的部分,主要大量應用於工廠自動化檢測及機器人產業等。 將近80%的工業視覺系統主要用在檢測方面,包括用於提高生產效率、控制生產過程中的產品品質、採集產品資料等。產品的分類和選擇也集成於檢測功能中。 視覺系統檢測生產線上的產品,決定產品是否符合品質要求,並根據結果,產生相應的信號輸入上位機。圖像獲取設備包括光源、攝像機等;圖像處理設備包括相應的軟體和硬體系統;輸出設備是與製造過程相連的有關系統,包括可编程控制器和警報裝置等。 資料傳輸到電腦,進行分析和產品控制,若發現不合格品,則報警器告警,並將其排除出生產線。 機器視覺的結果是CAQ系統的品質資訊來源,也可以和CIMS其他系統集成。.

新!!: 人工神经网络和机器视觉 · 查看更多 »

支持向量机

在机器学习中,支持向量机(support vector machine,常简称為SVM,又名支持向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。 除了进行线性分类之外,SVM还可以使用所谓的有效地进行非线性分类,将其输入隐式映射到高维特征空间中。 当数据未被标记时,不能进行监督式学习,需要用非監督式學習,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支持向量机改进的聚类算法被称为支持向量聚类Ben-Hur, Asa, Horn, David, Siegelmann, Hava, and Vapnik, Vladimir; "Support vector clustering" (2001) Journal of Machine Learning Research, 2: 125–137.

新!!: 人工神经网络和支持向量机 · 查看更多 »

感知器

感知器(英语:Perceptron)是Frank Rosenblatt在1957年就职于康奈尔航空实验室(Cornell Aeronautical Laboratory)時所發明的一種人工神經網路。它可以被視為一種最簡單形式的前馈神經網路,是一種二元线性分类器。 Frank Rosenblatt给出了相应的感知机学习算法,常用的有感知机学习、最小二乘法和梯度下降法。譬如,感知机利用梯度下降法对损失函数进行极小化,求出可将训练数据进行线性划分的分离超平面,从而求得感知机模型。 感知机是生物神经细胞的简单抽象。神经细胞结构大致可分为:树突、突触、及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为『是』,而未激动时为『否』。神经细胞的状态取决于从其它的神经细胞收到的输入信号量,及突触的强度(抑制或加强)。当信号量总和超过了某个阈值时,细胞体就会激动,产生电脉冲。电脉冲沿着轴突并通过突触传递到其它神经元。为了模拟神经细胞行为,与之对应的感知机基础概念被提出,如权量(突触)、偏置(阈值)及激活函数(细胞体)。 在人工神经网络领域中,感知机也被指为单层的人工神经网络,以区别于较复杂的多层感知机(Multilayer Perceptron)。作为一种线性分类器,(单层)感知机可说是最简单的前向人工神经网络形式。尽管结构简单,感知机能够学习并解决相当复杂的问题。感知机主要的本质缺陷是它不能处理线性不可分问题。.

新!!: 人工神经网络和感知器 · 查看更多 »

感知机

#重定向 感知器.

新!!: 人工神经网络和感知机 · 查看更多 »

数学模型

數學模型是使用數學概念和語言來对一個系統的描述。建立数学模型的过程叫做数学建模。數學模型不只用在自然科學(如物理、生物學、地球科學、大氣科學)和工程学科(如计算机科学,人工智能)上,也用在社會科學(如經濟學、心理學、社會學和政治科學)上;其中,物理學家、工程師、统计学家、運籌學分析家和經濟學家們最常使用數學模型。模型会帮助解释一个系统,研究不同组成部分的影响,以及对行为做出预测。 Eykhoff定義「數學模型」為「對一個現存(或被建構的)系統本質的表述,以能以有用的形式表示出此系統的知識來。」 數學模型可以有許多種的形式,不只限定在動態系統、概率模型、微分方程或賽局模型而已。不同的模型可能有相同的形式,同一個模型也可能包含了不同的抽象結構。.

新!!: 人工神经网络和数学模型 · 查看更多 »

数字化

#重定向 數字化革命.

新!!: 人工神经网络和数字化 · 查看更多 »

扬·勒丘恩

扬·勒丘恩(Yann Le Cun,Yann LeCun,)是一位计算机科学家,他在机器学习、计算机视觉、和計算神經科學等领域都有很多贡献。他最著名的工作是在光学字符识别和计算机视觉上使用卷积神经网络 (CNN),他也被称为卷积网络之父。他同Léon Bottou和Patrick Haffner等人一起创建了DjVu图像压缩技术。他同Léon Bottou一起开发了Lush语言。.

新!!: 人工神经网络和扬·勒丘恩 · 查看更多 »

手写识别

手写识别(Handwriting recognition)是计算机在纸、照片、触摸屏或其他设备中接收并识别人手写的文字等信息的技术,主要应用于光学字符识别(OCR)。.

新!!: 人工神经网络和手写识别 · 查看更多 »

重定向到这里:

人工智慧網路類神經網絡類神經網路

传出传入
嘿!我们在Facebook上吧! »