×

dimensional

dimensional(什么是二次元、三次元)

admin admin 发表于2023-01-28 10:38:19 浏览25 评论0

抢沙发发表评论

本文目录

什么是二次元、三次元

感谢网友邀请回答:二次元/三次元?

问题答案一、

二次元,就是指二维的平面空间,用来指动画,漫画,动漫,CG,游戏等一系列平面的视界产物。 在日本ACG作品当中所指称的“次元”,通常是指作品当中的幻想世界以及其各种要素的集合体。

另外,在传统上,以平面的媒体所表现的虚拟角色,如漫画或动画中的人物,因其二维空间的本质,而常被称为“二次元角色”,以有别于现实(三维空间)的人物。

但是,以三维电脑图像所制作的角色,因其处于虚拟世界又具有立体性的概念,而被称为“2.5次元角色”。

立体造型的玩偶等物,从本来的定义来说,应该是三次元角色;但因为本身通常基于二次元角色立体化而来,又或者强调其虚拟的本质,所以有时候也被称为“2.5次元角色”。

问题答案二、

Cosplay是ACG中的一种,ACG指的是二次元的纬空间。二次元其实是指人类幻想出来的唯美世界,用各种憧憬的体现虐袭观赏者的视觉体验,数学空间纬度上,本质其实还是三次元世界的人类心中模糊的美好印象。

与二次元相对的三次元,除了用于指现实世界之外,也用于指现实的人物、事物。由现实世界的人物、事物所诞生的图像、影视作品,属于三次元,而不属于二次元,因此真人电影、电视剧、真人照片,因为其给予人心中最直观的认知。

我们生活在三维空间中,一些人就形象的比喻我们的世界叫三次元,在动漫迷眼中现实世界就是三次元,动漫世界就是二次元。

如何快速学会写字数较多的文案

首先,题主的问题就有“问题”。文案的好坏,与文字多少无关,只要抓住“核心点”“牛鼻子”,寥寥数语即可传神,言简意赅尽显匠心。

文案与文章有区别,虽然都是表情达意,但文案主要是为商业服务的,考验的是对营销的理解、产品的解析、推广的运用、行销场景的描述及其综合的沟通。

文案的创意策划,与学习背景、知识结构、写作水平及社会阅历有关。好的文案,区区几个文字组合,就能动人心魄,且能催人泪下。如美国前总统奥巴马的竞选文案—“YES WE CAN“,联想的广告文案—“人类失去联想,世界将会怎样”等。

当然,也有字数比较多的好文案,首先它一定是抓住了产品的核心卖点,然后通过述情怀、讲故事,以细腻的笔触将“兴奋点”一一展现。如“一夜爆红”的“江小白”文案,如光耀地产广告“先生的湖”文案。

无监督学习中有哪些算法属于聚类与降维

常用的无监督学习算法包括:

  1. K均值聚类(K-Means Clustering)
  2. 具有噪声的基于密度的聚类方法(Density-based Spatial Clustering ofApplications with Noise:DBSCAN)
  3. 主成分分析算法(Principal Component Analysis ,PCA)
  4. 自组织映射神经网络(Self-Organizing Map, SOM)
  5. 受限玻尔兹曼机(Restricted Boltzmann Machine, RBM)

脑洞不大可以做设计师嘛

首先你要明确你是要做哪方面的设计师。

其他不了解不评价,单就室内设计这一块而言,脑洞,绝不是一个设计师的基本条件,而是部分优秀设计师的天赋和能力的体现。之前看过一个数据,全国各行各业的设计师大概有七千多万,其中60%以上是室内设计师。为什么这个比例如此之高?就是因为这行入行门槛低,对专业技能需求不高,说句难听的,什么阿猫阿狗在一个装修公司里混上半年,都敢出去说自己是设计师。但回过头来看真正的设计能力呢?家装领域,90%的设计师是没有自己的原创设计的,原因很简单,普通二三线城市,连开发商的楼盘都基本没有啥原创楼盘,全是买的图纸过来改改造造,户型大同小异。

室内设计需要的设计两个方面,空间布置和功能使用,至于软装搭配和材质的使用,家装类装饰材料正儿八经普及的也就那么些,近千把万人排列组合都能把所有东西组合一边,同时还要靠谱普罗大众的经济和审美承受能力,能玩出什么花来?

而最关键的空间布置和功能使用,这个东西,经验和思考的重要性,远远大于脑洞,尤其在前期,你接触不到大平层和别墅等复杂项目的时候,中小户型的设计思路是有规律可循的,动线,人体工程学,光线,风水等等,网上教程也很多,可自行观看学习。说实在,就那么点面积,你有脑洞都没地方施展。而且现在网络发达,客户每天接受的新东西不比你少,各种平台各种广告,都会推出千奇百怪的产品,只有你想不到,没有他们做不到,如果你要在这方面去比脑洞,一个人的智慧如何和整个市场所有开发人员的智慧相比较?

至于后期做大做强,也是建立在你前期能把基本功打结实的基础上,要学会跑,先学会走。什么时候各种最基础的空间布置不会犯错,人体工程学信手拈来就能应用,再去做点新的东西,要不然脑洞乱开,就会做出来不实用的设计。室内设计,实用和舒适永远是第一要素。你设计的再漂亮,如果这个客户住进去,不舒服,他是不会念着你的好的。

说实话,大部分普通设计师拿到项目,都是要求助外部资源的,各种网站的经典案例,你有时间可以去翻翻,你会发现,真的千篇一律,很少能看到新东西有亮点的,更别说什么脑洞了。大部分人是不敢随便新材料的,怕出问题,客户的接受度也不高。那在原有的材料上去做花样,你能玩的多花?如果你把普通材料玩花了,那也是一种本事。

至于你说的脑洞,这个可以有,但不是必须有。没有的话,你凭借踏实钻研,然后不断总结和学习,也能在涉及领域有一席之地。如果有,那更是锦上添花,可以让你在这茫茫人海中不断闪烁自己的独特的光芒。但绝对不要因为没有脑洞,就否认自己。更不要还没有尝试过,就因为别人说的话而放弃,大部分人都是一路成长起来的。

祝你成功

数据挖掘平台哪些比较好

推荐几个吧,不是国内的,但表现力不错

1. Rapid Miner

Rapid Miner是一个数据科学软件平台,为数据准备、机器学习、深度学习、文本挖掘和预测分析提供一种集成环境。该程序完全用Java编程语言编写。

2、 Python

Python是一种免费的开源语言,学起来往往很容易上手,易于使用。许多用户发现可以在几分钟内开始构建数据,并进行极其复杂的亲和度分析。只要你熟悉变量、数据类型、函数、条件语句和循环等基本编程概念,最常见的业务用例数据可视化就很简单。

3、Kaggle

Kaggle是世界上最大的数据科学家和机器学习者社区。Kaggle以开设机器学习竞赛起家,但现在逐渐变成基于公共云的数据科学平台。Kaggle是一个平台,有助于解决难题、招募强大的团队并宣传数据科学的力量。

4、Oracle Data Mining

它是Oracle高级分析数据库的代表。市场领先的公司用它最大限度地发掘数据的潜力,做出准确的预测。该系统配合强大的数据算法,锁定最佳客户。此外,它可识别异常情况和交叉销售机会,让用户能够根据需要运用不同的预测模型。此外,它以所需的方式定制客户画像。


源于人脑的深度学习,到底是怎样学习的

摘要: 深度学习可以完成需要高度抽象特征的人工智能任务,如语音识别、图像识别和检索、自然语言理解等。深层模型是包含多个隐藏层的人工神经网络,多层非线性结构使其具备强大的特征表达能力和对复杂任务建模能力。训练深层模型是长期以来的难题,近年来以层次化、逐层初始化为代表的一系列方法的提出给训练深层模型带来了希望,并在多个应用领域获得了成功。深层模型的并行化框架和训练加速方法是深度学习走向实用的重要基石,已有多个针对不同深度模型的开源实现,Google、Facebook、百度、腾讯等公司也实现了各自的并行化框架。深度学习是目前最接近人脑的智能学习方法,深度学习引爆的这场革命,将人工智能带上了一个新的台阶,将对一大批产品和服务产生深远影响。

1 深度学习的革命

人工智能(ArTIficial Intelligence),试图理解智能的实质,并制造出能以人类智能相似的方式做出反应的智能机器。如果说机器是人类手的延伸、交通工具是人类腿的延伸,那么人工智能就是人类大脑的延伸,甚至可以帮助人类自我进化,超越自我。人工智能也是计算机领域最前沿和最具神秘色彩的学科,科学家希望制造出代替人类思考的智能机器,艺术家将这一题材写进小说,搬上银幕,引发人们无限的遐想。然而,作为一门严肃的学科,人工智能在过去的半个多世纪中发展却不算顺利。过去的很多努力还是基于某些预设规则的快速搜索和推理,离真正的智能还有相当的距离,或者说距离创造像人类一样具有抽象学习能力的机器还很遥远。

近年来,深度学习(Deep Learning)直接尝试解决抽象认知的难题,并取得了突破性的进展。深度学习引爆的这场革命,将人工智能带上了一个新的台阶,不仅学术意义巨大,而且实用性很强,工业界也开始了大规模的投入,一大批产品将从中获益。

2006年,机器学习泰斗、多伦多大学计算机系教授Geoffery Hinton在Science发表文章,提出基于深度信念网络(Deep Belief Networks, DBN)可使用非监督的逐层贪心训练算法,为训练深度神经网络带来了希望。

2012年,Hinton又带领学生在目前最大的图像数据库ImageNet上,对分类问题取得了惊人的结果,将Top5错误率由26%大幅降低至15%。

2012年,由人工智能和机器学习顶级学者Andrew Ng和分布式系统顶级专家Jeff Dean领衔的梦幻阵容,开始打造Google Brain项目,用包含16000个CPU核的并行计算平台训练超过10亿个神经元的深度神经网络,在语音识别和图像识别等领域取得了突破性的进展。该系统通过分析YouTube上选取的视频,采用无监督的方式训练深度神经网络,可将图像自动聚类。在系统中输入“cat”后,结果在没有外界干涉的条件下,识别出了猫脸。

2012年,微软首席研究官Rick Rashid在21世纪的计算大会上演示了一套自动同声传译系统,将他的英文演讲实时转换成与他音色相近、字正腔圆的中文演讲。同声传译需要经历语音识别、机器翻译、语音合成三个步骤。该系统一气呵成,流畅的效果赢得了一致认可,深度学习则是这一系统中的关键技术。

2013年,Google收购了一家叫DNN Research的神经网络初创公司,这家公司只有三个人,Geoffrey Hinton和他的两个学生。这次收购并不涉及任何产品和服务,只是希望Hinton可以将深度学习打造为支持Google未来的核心技术。同年,纽约大学教授,深度学习专家Yann LeCun加盟Facebook,出任人工智能实验室主任,负责深度学习的研发工作,利用深度学习探寻用户图片等信息中蕴含的海量信息,希望在未来能给用户提供更智能化的产品使用体验。

2013年,百度成立了百度研究院及下属的深度学习研究所(IDL),将深度学习应用于语音识别和图像识别、检索,以及广告CTR预估(Click-Through-Rate PredicTIon,pCTR),其中图片检索达到了国际领先水平。2014年又将Andrew Ng招致麾下,Andrew Ng是斯坦福大学人工智能实验室主任,入选过《时代》杂志年度全球最有影响力100人,是16位科技界的代表之一。

如果说Hinton 2006年发表在《Science》杂志上的论文只是在学术界掀起了对深度学习的研究热潮,那么近年来各大巨头公司争相跟进,将顶级人才从学术界争抢到工业界,则标志着深度学习真正进入了实用阶段,将对一系列产品和服务产生深远影响,成为它们背后强大的技术引擎。

目前,深度学习在几个主要领域都获得了突破性的进展:在语音识别领域,深度学习用深层模型替换声学模型中的混合高斯模型(Gaussian Mixture Model, GMM),获得了相对30%左右的错误率降低;在图像识别领域,通过构造深度卷积神经网络(CNN),将Top5错误率由26%大幅降低至15%,又通过加大加深网络结构,进一步降低到11%;在自然语言处理领域,深度学习基本获得了与其他方法水平相当的结果,但可以免去繁琐的特征提取步骤。可以说到目前为止,深度学习是最接近人类大脑的智能学习方法。

2深层模型的基本结构

深度学习采用的模型为深层神经网络(Deep Neural Networks,DNN)模型,即包含多个隐藏层(Hidden Layer,也称隐含层)的神经网络(Neural Networks,NN)。深度学习利用模型中的隐藏层,通过特征组合的方式,逐层将原始输入转化为浅层特征,中层特征,高层特征直至最终的任务目标。

深度学习源于人工神经网络的研究,先来回顾一下人工神经网络。一个神经元如下图所示:

这个神经元接受三个输入x1,x2,x3,神经元输出为

其中W1, W2, W3和b为神经元的参数,f(z)称为激活函数,一种典型的激活函数为Sigmoid函数,即

其图像为

神经网络则是多个神经元组成的网络,一个简单的神经网络如下图所示

使用圆圈来表示神经网络的输入,标上“+1”的圆圈称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层(本例中,有3个输入单元,偏置单元不计);最右的一层叫做输出层(本例中,输出层有2个节点);中间的节点叫做隐藏层(本例中,有2个隐藏层,分别包含3个和2个神经元,偏置单元同样不计),因为不能在训练样本集中观测到它们的值。神经元网络中的每一条连线对应一个连接参数,连线个数对应网络的参数个数(本例共有4&TImes;3 + 4&TImes;2 +3×2=26个参数)。求解这个的神经网络,需要(x(i),y(i))的样本集,其中x(i)是3维向量,y(i)是2维向量。

上图算是一个浅层的神经网络,下图是一个用于语音识别的深层神经网络。具有1个输入层,4个隐藏层和1个输出层,相邻两层的神经元全部连接。

3 选择深层模型的原因

为什么要构造包含这么多隐藏层的深层网络结构呢?背后有一些理论依据:

3.1天然层次化的特征

对于很多训练任务来说,特征具有天然的层次结构。以语音、图像、文本为例,层次结构大概如下表所示。

以图像识别为例,图像的原始输入是像素,相邻像素组成线条,多个线条组成纹理,进一步形成图案,图案构成了物体的局部,直至整个物体的样子。不难发现,可以找到原始输入和浅层特征之间的联系,再通过中层特征,一步一步获得和高层特征的联系。想要从原始输入直接跨越到高层特征,无疑是困难的。

3.2 仿生学依据

人工神经网络本身就是对人类神经系统的模拟,这种模拟具有仿生学的依据。1981年,David Hubel 和Torsten Wiesel发现可视皮层是分层的。人类的视觉系统包含了不同的视觉神经元,这些神经元与瞳孔所受的刺激(系统输入)之间存在着某种对应关系(神经元之间的连接参数),即受到某种刺激后(对于给定的输入),某些神经元就会活跃(被激活)。这证实了人类神经系统和大脑的工作其实是不断将低级抽象传导为高级抽象的过程,高层特征是低层特征的组合,越到高层特征就越抽象。

3.3 特征的层次可表示性

特征的层次可表示性也得到了证实。1995年前后,Bruno Olshausen和David Field收集了很多黑白风景照,从这些照片中找到了400个16×16的基本碎片,然后从照片中再找到其他一些同样大小的碎片,希望将其他碎片表示为这400个基本碎片的线性组合,并使误差尽可能小,使用的碎片尽可能少。表示完成后,再固定其他碎片,选择更合适的基本碎片组合优化近似结果。反复迭代后,得到了可以表示其他碎片的最佳的基本碎片组合。他们发现,这些基本碎片组合都是不同物体不同方向的边缘线。

这说明可以通过有效的特征提取,将像素抽象成更高级的特征。类似的结果也适用于语音特征。

4 从浅层模型到深层模型

前文谈到了深层模型的结构和它的优势。事实上,深层模型具有强大的表达能力,并可以像人类一样有效提取高级特征,并不是新的发现。那么为什么深层模型直到最近几年才开始得到广泛的关注和应用呢?还是从传统的机器学习方法和浅层学习谈起。

4.1浅层模型及训练方法

反向传播算法(Back Propagation,BP算法)。

上世纪八九十年代,人们提出了一系列机器学习模型,应用最为广泛的包括支持向量机(Support Vector Machine,SVM),这两种模型分别可以看作包含1个隐藏层和没有隐藏层的浅层模型。训练时可以利用反向传播算法计算梯度,再用梯度下降方法在参数空间中寻找最优解。浅层模型往往具有凸代价函数,理论分析相对简单,训练方法也容易掌握,取得了很多成功的应用。

4.2 深层模型的训练难度

浅层模型的局限性在于有限参数和计算单元,对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定的制约。深层模型恰恰可以克服浅层模型的这一弱点,然而应用反向传播和梯度下降来训练深层模型,就面临几个突出的问题:

1.局部最优。与浅层模型的代价函数不同,深层模型的每个神经元都是非线性变换,代价函数是高度非凸函数,采用梯度下降的方法容易陷入局部最优。

2.梯度弥散。使用反向传播算法传播梯度的时候,随着传播深度的增加,梯度的幅度会急剧减小,会导致浅层神经元的权重更新非常缓慢,不能有效学习。这样一来,深层模型也就变成了前几层相对固定,只能改变最后几层的浅层模型。

3.数据获龋深层模型的表达能力强大,模型的参数也相应增加。对于训练如此多参数的模型,小训练数据集是不能实现的,需要海量的有标记的数据,否则只能导致严重的过拟合(Over fitting)。

4.3 深层模型的训练方法

尽管挑战很大,Hinton教授并没有放弃努力,他30年来一直从事相关研究,终于有了突破性的进展。2006年,他在《Science》上发表了一篇文章,掀起了深度学习在学术界和工业界的浪潮。这篇文章的两个主要观点是:

1.多隐藏层的人工神经网络具有优异的特征学习能力,学习到的特征对数据有更本质的刻画,从而有利于可视化或分类。

2.深度神经网络在训练上的难度,可以通过“逐层初始化”(Layer-wise Pre-training)来有效克服,文中给出了无监督的逐层初始化方法。

优异的特征刻画能力前文已经提到,不再累述,下面重点解释一下“逐层初始化”的方法。

给定原始输入后,先要训练模型的第一层,即图中左侧的黑色框。黑色框可以看作是一个编码器,将原始输入编码为第一层的初级特征,可以将编码器看作模型的一种“认知”。为了验证这些特征确实是输入的一种抽象表示,且没有丢失太多信息,需要引入一个对应的解码器,即图中左侧的灰色框,可以看作模型的“生成”。为了让认知和生成达成一致,就要求原始输入通过编码再解码,可以大致还原为原始输入。因此将原始输入与其编码再解码之后的误差定义为代价函数,同时训练编码器和解码器。训练收敛后,编码器就是我们要的第一层模型,而解码器则不再需要了。这时我们得到了原始数据的第一层抽象。固定第一层模型,原始输入就映射成第一层抽象,将其当作输入,如法炮制,可以继续训练出第二层模型,再根据前两层模型训练出第三层模型,以此类推,直至训练出最高层模型。

逐层初始化完成后,就可以用有标签的数据,采用反向传播算法对模型进行整体有监督的训练了。这一步可看作对多层模型整体的精细调整。由于深层模型具有很多局部最优解,模型初始化的位置将很大程度上决定最终模型的质量。“逐层初始化”的步骤就是让模型处于一个较为接近全局最优的位置,从而获得更好的效果。

4.4 浅层模型和深层模型的对比

浅层模型有一个重要的特点,需要依靠人工经验来抽取样本的特征,模型的输入是这些已经选取好的特征,模型只用来负责分类和预测。在浅层模型中,最重要的往往不是模型的优劣,而是特征的选取的优劣。因此大多数人力都投入到特征的开发和筛选中来,不但需要对任务问题领域有深刻的理解,还要花费大量时间反复实验摸索,这也限制了浅层模型的效果。

事实上,逐层初始化深层模型也可以看作是特征学习的过程,通过隐藏层对原始输入的一步一步抽象表示,来学习原始输入的数据结构,找到更有用的特征,从而最终提高分类问题的准确性。在得到有效特征之后,模型整体训练也可以水到渠成。

5 深层模型的层次组件

深层模型是包含多个隐藏层的神经网络,每一层的具体结构又是怎样的呢?本节介绍一些常见的深层模型基本层次组件。

5.1 自编码器(Auto-Encoder)

一种常见的深层模型是由自编码器(Auto-Encoder)构造的。自编码器可以利用一组无标签的训练数据{x(1), x(2), … }(其中x(i)是一个n维向量)进行无监督的模型训练。它采用反向传播算法,让目标值接近输入值。下图是一个自编码器的示例:

自编码器尝试训练一个恒等函数,让输出接近等于输入值,恒等函数看似没有学习的意义,但考虑到隐藏层神经元的数目(本例中为3个)小于输入向量的维数(本例中为6维),事实上隐藏层就变成了输入数据的一种压缩的表示,或说是抽象的简化表示。如果网络的输入是完全随机的,将高维向量压缩成低维向量会难以实现。但训练数据往往隐含着特定的结构,自编码器就会学到这些数据的相关性,从而得到有效的压缩表示。实际训练后,如果代价函数越小,就说明输入和输出越接近,也就说明这个编码器越靠谱。当然,自编码器训练完成后,实际使用时只需要它的前一层,即编码部分,解码部分就没用了。

稀疏自编码器(Sparse Auto-Encoder)是自编码器的一个变体,它在自编码器的基础上加入正则化(Regularity)。正则化是在代价函数中加入抑制项,希望隐藏层节点的平均激活值接近于0,有了正则化的约束,输入数据可以用少数隐藏节点表达。之所以采用稀疏自编码器,是因为稀疏的表达往往比稠密的表达更有效,人脑神经系统也是稀疏连接,每个神经元只与少数神经元连接。

降噪自编码器是另一种自编码器的变体。通过在训练数据中加入噪声,可训练出对输入信号更加鲁棒的表达,从而提升模型的泛化能力,可以更好地应对实际预测时夹杂在数据中的噪声。

得到自编码器后,我们还想进一步了解自编码器到底学到了什么。例如,在10×10的图像上训练一个稀疏自编码器,然后对于每个隐藏神经元,找到什么样的图像可以让隐藏神经元获得最大程度的激励,即这个隐藏神经元学习到了什么样的特征。将100个隐藏神经元的特征都找出来,得到了如下100幅图像:

可以看出,这100幅图像具备了从不同方向检测物体边缘的能力。显然,这样的能力对后续的图像识别很有帮助。

5.2 受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)

受限玻尔兹曼机(Restricted Boltzmann Machine, RBM)是一个二部图,一层是输入层(v),另一层是隐藏层(h),假设所有节点都是随机二值变量节点,只能取值0或1,同时假设全概率分布p(v, h)满足Boltzmann分布。

由于同层节点之间没有连接,因此已知输入层的情况下,隐藏层的各节点是条件独立的;反之,已知隐藏层的情况下,输入层各节点也是条件独立的。同时,可以根据Boltzmann分布,当输入v时通过p(h|v)生成隐藏层,得到隐藏层之后再通过p(v|h)生成输入层。相信很多读者已经猜到了,可以按照训练其他网络类似的思路,通过调整参数,希望通过输入v生成的h,再生成的v’与v尽可能接近,则说明隐藏层h是输入层v的另外一种表示。这样就可以作为深层模型的基本层次组件了。全部用RBM形成的深层模型为深度玻尔兹曼机(Deep Boltzmann Machine,DBM)。如果将靠近输入层的部分替换为贝叶斯信念网络,即有向图模型,而在远离输入层的部分仍然使用RBM,则称为深度信念网络(Deep Belief Networks,DBN)。

5.3 卷积神经网络(Convolutional Neural Networks, CNN)

以上介绍的编码器都是全连通网络,可以完成10×10的图像识别,如手写体数字识别问题。然而对于更大的图像,如100×100的图像,如果要学习100个特征,则需要1,000,000个参数,计算时间会大大增加。解决这种尺寸图像识别的有效方法是利用图像的局部性,构造一个部分联通的网络。一种最常见的网络是卷积神经网络(Convolutional Neural Networks,CNN),它利用图像固有的特性,即图像局部的统计特性与其他局部是一样的。因此从某个局部学习来的特征同样适用于另外的局部,对于这个图像上的所有位置,都能使用同样的特征。

具体地说,假设有一幅100×100的图像,要从中学习一个10×10的局部图像特征的神经元,如果采用全连接的方式,100×100维的输入到这个神经元需要有10000个连接权重参数。而采用卷积核的方式,只有10×10=100个参数权重,卷积核可以看作一个10×10的小窗口,在图像上上下左右移动,走遍图像中每个10×10的位置(共有91×91个位置)。每移动到一个位置,则将该位置的输入与卷积核对应位置的参数相乘再累加,得到一个输出值(输出值是91×91的图像)。卷积核的特点是连接数虽然很多,有91×91×10×10个连接,但是参数只有10×10=100个,参数数目大大减小,训练也变得容易了,并且不容易产生过拟合。当然,一个神经元只能提取一个特征,要提取多个特征就要多个卷积核。

下图揭示了对一幅8×8维图像使用卷积方法提取特征的示意过程。其中使用了3×3的卷积核,走遍图像中每个3×3的位置后,最终得到6×6维的输出图像:

如图所示是Hinton的研究小组在ImageNet竞赛中使用的卷积神经网络,共有5个卷积层,每层分别有96,256,384,384和256个卷积核,每层卷积核的大小分别为11×11,5×5,3×3,3×3和3×3。网络的最后两层是全连接层。

6 深度学习的训练加速

深层模型训练需要各种技巧,例如网络结构的选取,神经元个数的设定,权重参数的初始化,学习率的调整,Mini-batch的控制等等。即便对这些技巧十分精通,实践中也要多次训练,反复摸索尝试。此外,深层模型参数多,计算量大,训练数据的规模也更大,需要消耗很多计算资源。如果可以让训练加速,就可以在同样的时间内多尝试几个新主意,多调试几组参数,工作效率会明显提升,对于大规模的训练数据和模型来说,更可以将难以完成的任务变成可能。这一节就谈谈深层模型的训练加速方法。

6.1 GPU加速

矢量化编程是提高算法速度的一种有效方法。为了提升特定数值运算操作(如矩阵相乘、矩阵相加、矩阵-向量乘法等)的速度,数值计算和并行计算的研究人员已经努力了几十年。矢量化编程强调单一指令并行操作多条相似数据,形成单指令流多数据流(SIMD)的编程泛型。深层模型的算法,如BP,Auto-Encoder,CNN等,都可以写成矢量化的形式。然而,在单个CPU上执行时,矢量运算会被展开成循环的形式,本质上还是串行执行。

GPU(Graphic Process Units,图形处理器)的众核体系结构包含几千个流处理器,可将矢量运算并行化执行,大幅缩短计算时间。随着NVIDIA、AMD等公司不断推进其GPU的大规模并行架构支持,面向通用计算的GPU(General-Purposed GPU, GPGPU)已成为加速可并行应用程序的重要手段。得益于GPU众核(many-core)体系结构,程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。目前GPU已经发展到了较为成熟的阶段,受益最大的是科学计算领域,典型的成功案例包括多体问题(N-Body Problem)、蛋白质分子建模、医学成像分析、金融计算、密码计算等。

利用GPU来训练深度神经网络,可以充分发挥其数以千计计算核心的高效并行计算能力,在使用海量训练数据的场景下,所耗费的时间大幅缩短,占用的服务器也更少。如果对针对适当的深度神经网络进行合理优化,一块GPU卡可相当于数十甚至上百台CPU服务器的计算能力,因此GPU已经成为业界在深度学习模型训练方面的首选解决方案。

6.2数据并行

数据并行是指对训练数据做切分,同时采用多个模型实例,对多个分片的数据并行训练。

要完成数据并行需要做参数交换,通常由一个参数服务器(Parameter Server)来帮助完成。在训练的过程中,多个训练过程相互独立,训练的结果,即模型的变化量ΔW需要汇报给参数服务器,由参数服务器负责更新为最新的模型W’ = W – η ∙ ΔW,然后再将最新的模型W’分发给训练程序,以便从新的起点开始训练。

数据并行有同步模式和异步模式之分。同步模式中,所有训练程序同时训练一个批次的训练数据,完成后经过同步,再同时交换参数。参数交换完成后所有的训练程序就有了共同的新模型作为起点,再训练下一个批次。而异步模式中,训练程序完成一个批次的训练数据,立即和参数服务器交换参数,不考虑其他训练程序的状态。异步模式中一个训练程序的最新结果不会立刻体现在其他训练程序中,直到他们进行下次参数交换。

参数服务器只是一个逻辑上的概念,不一定部署为独立的一台服务器。有时候它会附属在某一个训练程序上,有时也会将参数服务器按照模型划分为不同的分片,分别部署。

6.3模型并行

模型并行将模型拆分成几个分片,由几个训练单元分别持有,共同协作完成训练。当一个神经元的输入来自另一个训练单元上的神经元的输出时,产生通信开销。

多数情况下,模型并行带来的通信开销和同步消耗超过数据并行,因此加速比也不及数据并行。但对于单机内存无法容纳的大模型来说,模型并行是一个很好的选择。令人遗憾的是,数据并行和模型并行都不能无限扩展。数据并行的训练程序太多时,不得不减小学习率,以保证训练过程的平稳;模型并行的分片太多时,神经元输出值的交换量会急剧增加,效率大幅下降。因此,同时进行模型并行和数据并行也是一种常见的方案。如下图所示,4个GPU分为两组,GPU0,1为一组模型并行,GPU2,3为另一组,每组模型并行在计算过程中交换输出值和残差。两组GPU之间形成数据并行,Mini-batch结束后交换模型权重,考虑到模型的蓝色部分由GPU0和GPU2持有,而黄色部分由GPU1和GPU3持有,因此只有同色的GPU之间需要交换权重。

6.4计算集群

搭建CPU集群用于深度神经网络模型训练也是业界常用的解决方案,其优势在于利用大规模分布式计算集群的强大计算能力,利用模型可分布式存储、参数可异步通信的特点,达到快速训练深层模型的目的。

CPU集群方案的基本架构包含用于执行训练任务的Worker、用于分布式存储分发模型的参数服务器(Parameter Server)和用于协调整体任务的主控程序(Master)。CPU集群方案适合训练GPU内存难以容纳的大模型,以及稀疏连接神经网络。Andrew Ng和Jeff Dean在Google用1000台CPU服务器,完成了模型并行和Downpour SGD数据并行的深度神经网络训练。

结合GPU计算和集群计算技术,构建GPU集群正在成为加速大规模深度神经网络训练的有效解决方案。GPU集群搭建在CPU-GPU系统之上,采用万兆网卡或Infiniband等更加快速的网络通信设施,以及树形拓扑等逻辑网络拓扑结构。在发挥出单节点较高计算能力的基础上,再充分挖掘集群中多台服务器的协同计算能力,进一步加速大规模训练任务。

7 深度学习的软件工具及平台

目前,在深度学习系统实现方面,已有诸多较为成熟的软件工具和平台。

7.1 开源软件

在开源社区,主要有以下较为成熟的软件工具:

Kaldi是一个基于C++和CUDA的语音识别工具集,提供给语音识别的研究人员使用。Kaldi中既实现了用单个GPU加速的深度神经网络SGD训练,也实现了CPU多线程加速的深度神经网络SGD训练。

Cuda-convnet基于C++/CUDA编写,采用反向传播算法的深度卷积神经网络实现。

Caffe提供了在CPU以及GPU上的快速卷积神经网络实现,同时提供训练算法,使用NVIDIA K40或Titan GPU可以1天完成多于40,000,000张图片的训练。

Theano提供了在深度学习数学计算方面的Python库,它整合了NumPy矩阵计算库,可以运行在GPU上,并提供良好的算法上的扩展性。

OverFeat是由纽约大学CILVR实验室开发的基于卷积神经网络系统,主要应用场景为图像识别和图像特征提取。

Torch7是一个为机器学习算法提供广泛支持的科学计算框架,其中的神经网络工具包(Package)实现了均方标准差代价函数、非线性激活函数和梯度下降训练神经网络的算法等基础模块,可以方便地配置出目标多层神经网络开展训练实验。

7.2 工业界平台

在工业界,Google、Facebook、百度、腾讯等公司都实现了自己的软件框架:

Google的DistBelief系统是CPU集群实现的数据并行和模型并行框架,集群内使用上万CPU core来训练多达10亿参数的深度神经网络模型。DistBelief应用的主要算法有Downpour SGD和L-BFGS,支持的目标应用有语音识别和2.1万类目的图像分类。

Google的COTS HPC系统是GPU实现的数据并行和模型并行框架,GPU服务器间使用了Infiniband连接,并由MPI控制通信。COTS可以用3台GPU服务器在数天内完成对10亿参数的深度神经网络训练。

Facebook实现了多GPU训练深度卷积神经网络的并行框架,结合数据并行和模型并行的方式来训练CNN模型,使用4张NVIDIA Titan GPU可在数天内训练ImageNet的1000分类网络。

百度搭建了Paddle(Parallel Asynchonous Distributed Deep Learning)多机GPU训练平台。将数据分布到不同机器,通过Parameter Server协调各机器训练。Paddle支持数据并行和模型并行。

腾讯深度学习平台(Mariana)是为加速深度学习模型训练而开发的并行化平台,包括深度神经网络的多GPU数据并行框架,深度卷积神经网络的多GPU模型并行和数据并行框架,以及深度神经网络的CPU集群框架。Mariana基于特定应用的训练场景,设计定制化的并行化训练平台,支持了语音识别、图像识别,并积极探索在广告推荐中的应用。

8 总结

近年来人工智能领域掀起了深度学习的浪潮,从学术界到工业界都热情高涨。深度学习尝试解决人工智能中抽象认知的难题,从理论分析和应用方面都获得了很大的成功。可以说深度学习是目前最接近人脑的智能学习方法。

深度学习可通过学习一种深层非线性网络结构,实现复杂函数逼近,并展现了强大的学习数据集本质和高度抽象化特征的能力。逐层初始化等训练方法显著提升了深层模型的可学习型。与传统的浅层模型相比,深层模型经过了若干层非线性变换,带给模型强大的表达能力,从而有条件为更复杂的任务建模。与人工特征工程相比,自动学习特征,更能挖掘出数据中丰富的内在信息,并具备更强的可扩展性。深度学习顺应了大数据的趋势,有了充足的训练样本,复杂的深层模型可以充分发挥其潜力,挖掘出海量数据中蕴含的丰富信息。强有力的基础设施和定制化的并行计算框架,让以往不可想象的训练任务加速完成,为深度学习走向实用奠定了坚实的基矗已有Kaldi,Cuda-convnet,Caffe等多个针对不同深度模型的开源实现,Google、Facebook、百度、腾讯等公司也实现了各自的并行化框架。

深度学习引爆的这场革命,将人工智能带上了一个新的台阶,不仅学术意义巨大,而且实用性很强,深度学习将成为一大批产品和服务背后强大的技术引擎。

参考文献

Geoffery E. Hinton, Salakhutdinov RR. Reducing the dimensionality of data with neural networks. Science. 2006 Jul 28;313(5786):504-7.

ImageNet Classification with Deep Convolutional Neural Networks, Alex Krizhevsky, Ilya Sutskever, Geoffrey E Hinton, NIPS 2012.

Q.V. Le, M.A. Ranzato, R. Monga, M. Devin, K. Chen, G.S. Corrado, J. Dean, A.Y. Ng. Building high-level features using large scale unsupervised learning. ICML, 2012.

Rick Rashid, Speech Recognition Breakthrough for the Spoken, Translated Word?v=Nu-nlQqFCKg

NYU “Deep Learning” Professor LeCun Will Lead Facebook’s New Artificial Intelligence Lab.

Stanford deep learning tutorial

A Primer on Deep Learning

The Nobel Prize in Physiology or Medicine 1981.

Bruno A. Olshausen & David J. Field, Emergence of simple-cell receptive field properties by learning a sparse code for natural images. Nature. Vol 381. 13 June, 1996 ~little/cpsc425/olshausen_field_nature_1996.pdf

Back propagation algorithm

余凯,深度学习-机器学习的新浪潮,Technical News程序天下事

Support Vector Machine

Logistic Regression

Deep Networks Overview :_Overview

Y. LeCun and Y. Bengio. Convolutional networks for images, speech, and time-series. In M. A. Arbib, editor, The Handbook of Brain Theory and Neural Networks. MIT Press, 1995

Introduction to Convolutional neural network

Dean, J., Corrado, G.S., Monga, R., et al, Ng, A. Y. Large Scale Distributed Deep Networks. In Proceedings of the Neural Information Processing Systems (NIPS’12) (Lake Tahoe, Nevada, United States, December 3–6, 2012). Curran Associates, Inc, 57 Morehouse Lane, Red Hook, NY, 2013, 1223-1232.

Kaldi project

Povey, D., Ghoshal, A. Boulianne, G., et al, Vesely, K. Kaldi. The Kaldi Speech Recognition Toolkit. in Proceedings of IEEE 2011 Workshop on Automatic Speech Recognition and Understanding(ASRU 2011) (Hilton Waikoloa Village, Big Island, Hawaii, US, December 11-15, 2011). IEEE Signal Processing Society. IEEE Catalog No.: CFP11SRW-USB.

cuda-convent https://code.google.com/p/cuda-convnet/

Krizhevsky, A., Sutskever, I., and Hinton, G.E. ImageNet Classification with Deep Convolutional Neural Networks. In Proceedings of the Neural Information Processing Systems (NIPS’12) (Lake Tahoe, Nevada, United States, December 3–6, 2012). Curran Associates, Inc, 57 Morehouse Lane, Red Hook, NY, 2013, 1097-1106.

Krizhevsky, A. Parallelizing Convolutional Neural Networks. in tutorial of IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2014). (Columbus, Ohio, USA, June 23-28, 2014). 2014.

caffe

Jia, Y. Q. Caffe: An Open Source Convolutional Architecture for Fast Feature Embedding. (2013).

Theano https://github.com/Theano/Theano

J. Bergstra, O. Breuleux, F. Bastien, P. Lamblin, R. Pascanu, G. Desjardins, J. Turian, D. Warde-Farley and Y. Bengio. Theano: A CPU and GPU Math Expression Compiler. Proceedings of the Python for Scientific Computing Conference (SciPy) 2010. June 30 – July 3, Austin, TX.

Overfeat ?id=code:start

Torch7

Coates, A., Huval, B., Wang, T., Wu, D. J., Ng, A. Y. Deep learning with COTS HPC systems. In Proceedings of the 30th International Conference on Machine Learning (ICML’13) (Atlanta, Georgia, USA, June 16–21, 2013). JMLR: W&CP volume 28(3), 2013, 1337-1345.

(February 2014)

Kaiyu, Large-scale Deep Learning at Baidu, ACM International Conference on Information and Knowledge Management (CIKM 2013)

aaronzou, Mariana深度学习在腾讯的平台化和应用实践

Geoffrey E. Hinton, Simon Osindero, Yee-Whye Teh, A fast learning algorithm for deep belief nets Neural Compute, 18(7), 1527-54 (2006)

Andrew Ng. Machine Learning and AI via Brain simulations,

https://forum.stanford.edu/events/2011slides/plenary/2011plenaryNg.pdf

Geoffrey Hinton:UCLTutorial on: Deep Belief Nets

Krizhevsky, Alex. “ImageNet Classification with Deep Convolutional Neural Networks”. Retrieved 17 November 2013.

“Convolutional Neural Networks (LeNet) – DeepLearning 0.1 documentation”. DeepLearning 0.1. LISA Lab. Retrieved 31 August 2013.

Bengio, Learning Deep Architectures for AI, ~bengioy/papers/ftml_book.pdf;

Deep Learning

Deep Learning ~yann/research/deep/

Introduction to Deep Learning.

Google的猫脸识别:人工智能的新突破

Andrew Ng’s talk video:

Invited talk “A Tutorial on Deep Learning” by Dr. Kai Yu

哲学走到尽头了吗

如果哲学走到了尽头,那么人类也会是结束了其生命的存在!哲学是研究人与自然的关系!只要人存在,人还有生存的空间!那么哲学就不会到尽头!先从事科学研究,然后才可以从事哲学,要不然就成了研究鬼学!在中国及欧美国家中,研究哲学的人很多,但大多是无法超越,很少有新颖的观点与方法论。然而,究其原因,查了很多很多方法,始终找不出主要原因!哲学理论一旦没有了科学的严谨态度,思考方式,那么一切都将是带人进入误区,误区我称之谓走火入魔的鬼区!爱因斯坦认为科学的尽头是神学!我觉得其少了严谨的推理构架,科学的尽头是哲学,哲学的尽头是虚无飘缈,或是宇宙失去人类及其他生命的混沌初开的一片!

哲学是源于生命周围的学科,如果宇宙中生命结束了,那学科的综合体哲学才会结束。

早教什么品牌好早教十大品牌排行榜为你解答

早教十大品牌排行榜:运动宝贝

运动宝贝是一家以早教为内核,持续构建自身核心竞争壁垒的公司,从2008年起以亲子早教起家,11年时间坚持自主研发,以引领全球早幼教为使命,逐渐生成了早教、日托、家庭早教产品、早教app、早教动漫IP、早教商学院多品牌发力的早教综合服务平台。

其线下运动宝贝早教品牌布局深入,从一线到五线城市拥有500多家中心,说明业务标准化程度高,内容适应性强;运动宝贝拥有5大系列17门课程,且每年更新迭代,和清华大学等高校和法国cove(类中国教育部)等进行产学研合作,专业性和丰富性为行业之最;原创IP动漫制作精良,远超行业水准,起到良好的市场引流及品宣作用;中心布设家庭分龄早教产品,进而产生用户多层次消费,提升坪效;其内部孵化的高端日托MOMYHOME睦米,投资8000万研发3年才推出,据其CEO讲解是因为对教育本身怀有充分敬畏之心,并在美国开设中心。

早教十大品牌排行榜:美吉姆

美吉姆音译自MyGym,和金宝贝一样亦由美国授权引入,2018年美吉姆中国并购入三垒股份并更名。美吉姆中国的十余年发展中,其实做了三件大事:靠400多个线下中心撑起利润,借壳登陆A股,股东套现33亿元。

美国总部给美吉姆中国授权以十年为基,续约不久,现阶段授权稳定。美吉姆主打欢动、艺术、音乐三类课程,强调“非竞争性”的早期教育理念。客单价高昂、一二线市场强劲是美吉姆的显性优势,但同样的问题是引进的课程缺乏更新迭代,中国总部仅有教学教培而无教研部门,实际的主打是以儿童健身减肥为基底的大运动类课程。从价位上,美国2019年价格有所上调,多地区从60-80美金的月均价到了现在的90-100美金,但是对比中国每年2万多人民币的客单价,算起来实在太便宜;从营销上,美国都是自己网上报名试听,没有市场和销售人员强行推销,而中国有其店面的商场满眼都是宣传广告,进店后销售跟单非常积极,从各个环节对比中国店面稳胜。

早教十大品牌排行榜:金宝贝

作为早期教育行业的鼻祖,金宝贝已经跌至目前的排名。在那些日子里,它在早期教育中的地位就像肯德基在快餐业中的地位,具有悠久的历史和广泛的品牌意识。不幸的是,主要服装企业的上市母公司破产了,经过多次资本交易,早期教育业务易手,这已经失去了荣耀。 尽管有这些挫折,但不可低估的是,金宝贝留下的庞大体量和品牌影响力还是不容小觑。

金宝贝线下各分中心面对激烈竞争业绩持续下滑,总部却收取加盟商销售额权益金高达12.5%,很多加盟商甚至把自己全部利润贡献给了总部。这样杀鸡取卵的政策下,一些实力较强的加盟商纷纷自创品牌,希望进行业务脱离;而无法自立门户的加盟商,便天天给总部叫苦不堪,给了总部巨大的压力。

虽然金宝贝门店运营在婴幼儿环境和课程重复性过高等问题也被诟病良多,和所有外来授权品牌一样缺乏自主知识产权的内容,但经历了这么多,相信其高层也在痛定思痛,着手调整,说不定生病的大象也能重生跳舞呢?

早教十大品牌排行榜:红黄蓝

红黄蓝是本土早教机构中,创立时间较早的品牌。红黄蓝最初是做翻斗乐乐园起家,后引进亲子园项目。目前除各地开设亲子园提供早教服务外,还开设幼儿园。红黄蓝的早教课程名目比较多,主要为亲子课程、音乐课程、语言课程、思维课程。其中主要的课程都是与其他专业机构合作,由第三方提供教学体系及教程。

早教十大品牌排行榜:悦宝园

悦宝园同金宝贝和美吉姆等一样,源于美国,2010年进入中国,沿袭了正统的美式教育理念,注重创造力和个性的培养。课程丰富,以运动为主,通过游戏和玩耍激发宝宝潜能。致力于从运动、音乐和艺术方面全方面开发宝宝潜能,以完善的课程、安全的设备、舒适卫生的环境和充满激情的老师,助0-8岁孩子茁长成长。

早教十大品牌排行榜:蒙特梭利

蒙特梭利是上海蒙特梭利教育集团旗下早教品牌,在引进蒙特梭利课程基础上,经过香港中文大学、英国St Andrews (圣安德鲁斯大学)、北京师范大学等多所重点院校系统研究西方早教行业的发展,针对中国早教市场的现状,开办的为中国0-6岁儿童量身打造的早教机构。

早教十大品牌排行榜:七田真

2009年七田真进入中国市场,七田式课程主要针对左脑和右脑的发展,透过专门设计的多元化课程,营造一个愉快的学习环境,所有活动都是独一无二的,每周课堂遁序渐进地启发小朋友无限的学习潜能,让他们有机会持续发展和茁壮成长。

早教十大品牌排行榜:科贝乐

科贝乐是日本科贝乐株式会社旗下品牌,科贝乐全脑教育一直非常注重教学内容和教学方式在传承中锐意创新,致力于用前沿科学的大脑理论和幼儿成长发育理论及新科技助力一线教育实践,在教学教具使用及在线教育领域推陈出新。

早教十大品牌排行榜:东方爱婴

东方爱婴是本土化早教机构,成立于1998年,其主要对0~3岁的宝宝的早期教育。也是本土早教机构中创立时间比较早的一家,主要课程为孕育课程、母婴课程、探索课程、音乐课程、艺术课程等。其探索课程和金宝贝的育乐课基本相似,主要是利用器械让孩子在游戏时锻炼成长。与红黄蓝一样,其音乐课程也是使用的第三方的课程。

早教十大品牌排行榜:亲亲袋鼠

亲亲袋鼠早年成立于澳洲,国外称Toddler Kindy,虽然成长于澳洲,但其基本属于美式教育范畴。亲袋鼠从出生6周起,对照中、美、澳多国的成长标准,不拔苗助长,提倡尊重孩子,快乐互动的家庭关系,帮助家长和宝宝一起,一步一个脚印,一起量出宝宝的快乐,一同增加宝宝的信心。各亲亲袋鼠中心每年举办脑、体、智、能的竞赛,有符合标准的儿童每年得到VINCI SCHOOL北美老师的直接、定期辅导,使孩子们以后留学美国最好的学校。