网络出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20160715.1353.002.html
CAAITransactionsonIntelligentSystems
Oct.2016
深度学习方法研究新进展
刘帅师,程曦,郭文燕,陈奇
(长春工业大学电气与电子工程学院,吉林长春130000)
摘 要:本文依据模型结构对深度学习进行了归纳和总结,描述了不同模型的结构和特点。首先介绍了深度学习的概念及意义,然后介绍了4种典型模型:卷积神经网络、深度信念网络、深度玻尔兹曼机和堆叠自动编码器,并对近3年深度学习在语音处理、计算机视觉、自然语言处理以及医疗应用等方面的应用现状进行介绍,最后对现有深度学习模型进行了总结,并且讨论了未来所面临的挑战。
关键词:深度学习;卷积神经网络;深度信念网络;深度玻尔兹曼机;堆叠自动编码器中图分类号:TP18 文献标志码:A 文章编号:1673⁃4785(2016)05⁃0567⁃10
中文引用格式:刘帅师,程曦,郭文燕,等.深度学习方法研究新进展[J].智能系统学报,2016,11(5):567⁃577.
英文引用格式:LIUShuaishi,CHENGXi,GUOWenyan,etal.Progressreportonnewresearchindeeplearning[J].CAAItrans⁃actionsonintelligentsystems,2016,11(5):567⁃577.
Progressreportonnewresearchindeeplearning
(CollegeofElectricalandElectronicEngineering,ChangchunUniversityofTechnology,Changchun130000,China)
LIUShuaishi,CHENGXi,GUOWenyan,CHENQi
Abstract:Deeplearninghasrecentlyreceivedwidespreadattention.Usingamodelstructure,thispapergivesasummarizationandanalysisondeeplearningbydescribingandreviewingthestructureandcharacteristicsofdiffer⁃stackingencoder.Thepaperthenconcludesbyreviewingtheapplicationsofdeeplearningasregardsspeechpro⁃deeplearningmodelissummarizedandfuturechallengesdiscussed.icstackingencoder
Keywords:deeplearning;convolutionalneuralnetwork;deepbeliefnetworks;deepBoltzmannmachine;automat⁃ 深度学习是机器学习的一个分支,属于人工智能的新领域。深度学习的本质是特征提取,即通过组合低层次的特征形成更加抽象的高层表示,以达到获得最佳特征的目的[1]。它主要通过神经网络来模拟人的大脑的学习过程,希望实现对现实对象或数据(图像、语音及文本等)的抽象表达,整合特征抽取和分类器到一个学习框架下[2]。目前,深度学习在许多领域取得了广泛的关注,成为当今的研
收稿日期:2015⁃11⁃27. 网络出版日期:2016⁃07⁃15.
基金项目:吉林省科技厅青年科研基金项目(20140520065JH,
20140520076JH);长春工业大学科学研究发展基金自然科学计划项目(2010XN07).
通信作者:.E⁃mail:刘帅师.E⁃mail:liu⁃shuaishi@126.com.
entmodels.Thepaperfirstlyintroducestheconceptandsignificanceofdeeplearning,andthenreviewsfourtypicalmodels:aconvolutionalneuralnetwork;deepbeliefnetworks;thedeepBoltzmannmachine;andanautomaticcessing,computervision,naturallanguageprocessing,medicalscience,andotheraspects.Finally,theexisting
究热点。
上发表的一篇论文,开启了深度学习的浪潮。他提出了深度信念网的概念,成功地利用贪心策略逐层训练由玻尔兹曼机组成的深层架构,解决了以往深度网络训练困难的问题。此后,Hinton、Lecun、Bengio等大量科研人员对深度学习的模型构建、训练方式等做出了杰出的贡献。文献[4]对近几年新兴的深度学习的初始化方法、模型结构、学习算法等进行了详细的分析。2014年余滨等[5]从训练方式的角度对深度学习进行了总结。文献[6]依据数据流向对深度学习进行不同分类,本文将重点放在模
2006年,机器学习大师Hinton等[3]在《科学》
·568·智 能 系 统 学 报 第11卷
型结构,以深度学习的核心模型结构而展开。文献[7]年新的研究成果从深度学习结构进行展开,因此能够更准确地反映该领域的
,本文大量增加了近3最新研究进展。
本文依据模型结构,着重介绍4种典型的深度学习模型,即卷积神经网络、深度信念网络、深度玻尔兹曼机、堆叠自动编码器。下面对这些模型进行描述。
1 1.1 深度学习典型模型
1.1.1 卷积神经网络卷积历史
神经网络(convolutionalneuralnetworks,
CNN)研究猫脑皮层时受到的启发最早在20世纪80年代就已被提出。它的典型模型,是由于在LeNet⁃5[8]系统,在MNIST上得到了0.9%的错误率,并在
20世纪90年代就已用于银行的手写支票识别[7]但是,由于在大尺寸图像上没有好的效果,一度被人
。忽视。随着高效的GPU计算的兴起,直到2012年Hinton行起来在[9]ImageNet问题的成功,才使它在近几年流领域的研究热点之一。如今卷积神经网络已经成为众多科学,特别是在图像识别领域。由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了广泛的应用。1.1.2 卷积神经网络是前馈神经网络的一种结构
。卷积神
经网络的模型如图1所示,它是一个多层的神经网络,每层由多个二维平面组成,而每个平面由多个神经元组成。传统的神经网络层与层之间神经元采取全连接方式,而卷积神经网络采用稀疏连接方式,即每个特征图上的神经元只连接上一层的一个小区域的神经元连接。
图1 卷积神经网络模型
Fig.1 Convolutionalneuralnetworkmodel
卷积神经网络的低隐含层是由卷积层和最大池采样层交替组成,高层通常是全连接层作为分类器
使用。
首先,为了降低网络的复杂性,卷积神经网络采用权重共享方式,即同一个特征图,卷积核是一样的[10]比如ReLU;其次,等对得到的特征输入给一个非线性函数;最后,再采取下采样方法,比如最大,池化等。下采样的作用是把语义上相似的特征合并
起来,这是因为形成一个主题的特征的相对位置不太一样[1]1.1.3 训练方式。
卷积神经网络的训练采用有监督训练方式。首
先是向前传播,即输入X经过卷积神经网路后变为输出O,再将O与标签进行比较,然后以向后传播的方式,到将所得误差传播到每个节点,根据权值更新公式,更新相应的卷积核权值[4,6]此外,以卷积神经网络为核心的深度学习网络
。
还有3⁃D卷积神经网络(3⁃Dconvolutionalneuralnetworks,works,SN)3D⁃CNN[12]))[11],光谱网络(spectralolutionalneural,金字塔卷积神经网络net⁃networks,PCNN)[13](pyramidconv⁃积神经网络(multilevelpyamidconvolutional,多级金字塔卷neural1.2 networks,MLPCNN)[14]等。
受玻尔兹曼机为核心的深度网络有受玻尔兹曼机为核心的深度网络2种:
深度信念网和深度玻尔兹曼机。现简要分析二者的区别。
1.2.1 受限受玻尔兹曼机
制玻尔兹曼机(restrictedBoltzmannma⁃
chine,RBM)是一类无向图模型[4]层组成,与玻尔兹曼机(Boltzmann,由可视层和隐含machine,BM)不同,层内无连接,层间有连接。这种结构更易于计算隐含层单元与可视层单元的条件分布[5]玻尔兹曼机的训练方式通常采用对比散度方。受(cont⁃模型如图rastivedivergence,CD)。2所示。
常见的玻尔兹曼机的演变
图2 玻尔兹曼机演变模型
Fig.2 Theevolutionmodelofboltzmannmachine
第5期 刘帅师,等:深度学习方法研究新进展·569·
受玻尔兹曼机的演变模型有卷积受玻尔兹曼机(convolutionalrestrictedBoltzmannma⁃chine,CRBM)[15]restricted、稀疏受玻尔兹曼机玻尔Boltzmann兹曼机(sparsemachine,groupSRBM)[16]restricted、稀Boltzmann疏(sparse组受machine,SGRBM)[17]restrictedBoltzmannmachine,CRBM)、分类受玻尔兹曼机[18]等。更详细(class的描述内容参见文献[19]。1.2.2 深度信念网络深度信念网络
(deepbeliefnetworks,DBN)是由
多个受玻尔兹曼机(RBM)叠加而成的深度网络。深度信念网络的典型结构如图3所示,它通过无监督预训练和有监督微调来训练整个深度信念网络[7]玻尔兹曼机。预训练时用无标签数据单独训练每一层受,通过自下而上的方式,将下层受限
制玻尔兹曼机输出作为上层受玻尔兹曼机输入。当预训练完成后,网络会获得一个较好的网络初始值,但这还不是最优的[20]去训练网络,误差自顶向下传播。,再采用有标签数据一般采用梯度下降法对网络进行微调。深度信念网络的出现是深度学习的转折点,目前深度信念网络已应用于语音、图像处理等方面,尤其是在大数据方面[10]。
图3 深度信念网络典型结构
Fig.3 Theillustrationofdeepbeliefnetworkframework
深度信念网络的变种模型有卷积深度信念网
(convolutional深度信念网(sparsedeepbeliefdeepbeliefnetworks,CDBN)[21]networks,SDBN)、稀疏
[22]判别深度信念网(discriminativedeepbeliefnetworks,
、。
1.2.3 DDBN)[23]等深深度玻尔兹曼机
度玻尔兹曼机(deepBoltzmannmachine,
DBM)曼机叠加而成与深度信念网络相似。但是,与深度信念网络不同,都是以受玻尔兹,层间均
为无向连接,省略了由上至下的反馈参数调节。训练方式也与深度信念网络相似,先采用无监督预训练方法,得到初始权值,再运用场均值算法,最后采用有监督微方式进行微调。1.3 1.3.1 堆叠自动编码器自动编码器自动编码器
(autoencoder,AE)由编码器与解码
器组成,其原理如图4所示。核心思想是将输入信号进行编码,使用编码之后的信号重建原始信号,目的是让重建信号与原始信号相比重建误差最小[24]编码器将输入数据映射到特征空间,解码器将特征。映射回数据空间,完成对输入数据的重建。
图4 自动编码器原理图Fig.4 Theillustrationofautoencoder
自动编码器演化的模型如图5所示,自动编码器演化的模型有去噪自动编码器(denoisingautoen⁃coder,DAE)[25]coder,SAE)[26]、稀疏自动编码器(sparseautoen⁃encoder,CAE)[27]、收[28]、等卷积自动编码缩自动编码器。更详细的描述内容参见文献
(convolutional(contractiveautoauto[29⁃31]。
encoder,CAE)图5 自动编码器的演变模型Fig.5 Theevolutionmodelofautoencoder
1.3.2 堆叠自动编码器堆叠自动编码器原理
(stackedautoencoders,SAE)
与深度信念网络类似,其结构如图6所示,都是由简单结构叠加起来的深层网络。简单来说,就是将DBN码器的训练过程也是使用贪心逐层预训练算法中的RBM替换成AE就得到了SAE。自动编,但
·570·智 能 系 统 学 报 第11卷
因为是通过重构误差来进行训练,相比较而言比受玻尔兹曼机训练容易[7]以自动编码器及其变种模型的为核心的深度网
。
络称之为深度自动编码(deepautoencoders,DAE)。文献[32]对深度自动编码器进行了详细的描述。堆叠自动编码器就是一种典型的深度自动编码。类似的还有堆叠去噪自动编码器(stackeddenoisingauto⁃encoders,(stackedsparseSDAEauto)[25]encoders,SSAE)、堆叠稀疏[33]自等动。
编码器图6 堆叠自动编码器结构
Fig.6 TheillustrationofstackedAutoencoderframework
2 2.1 深度学习应用
型混合高斯模型 长期以来语音处理
,语音识别技术普遍采用的是声学模。但这种混合高斯模型本质上是一
种浅层网络建模,不能充分描述特征的状态空间分布
[34]
域,提出深度神经网络。2011年微软
[35]
将深度学习引入语音识别领
DNN,本质上是把混合高斯模型替换成了深度神经网络模型大大提高识别率。该模型在Switchboard标准数据集上的识别错误率比最低错误率降低了33%。2014年Van等
[36]
在网
络音乐平台Spotify使用深度卷积神经网络做基于内容的音乐推荐,以及实现依靠音频信号预测听众的收听喜好,然后采用WMF(weightedmatrixfactori⁃zation)别系统模型进行评分预测DeepSpeech
[37]
可以在饭店等嘈杂环境下实
。百度的深度学习语音识现将近81%的辨识准确率。2015年Chan等[38]提出了LAS(listen,attendandspell)系统。该系统利用金字塔式双向的RNN网络。不同于传统的模型,不需要完整的端对端的CTC(connectionisttemporalclassification),符,合成了约4实现跳过音素直接把语音识别为字万小时音频。当不依赖语音词典和
语言模型时在谷歌语音搜索任务词错率达到14.2%,2.2 当结合语言模型时词错率达到11.2%。2012计算机视觉
年Hinton[39]和他的2个学生在著名的Im⁃
ageNet结果,赢得了冠军问题上用更深的卷积神经网络取得世界最好,使得图像识别大踏步前进。随后,深度学习在图像处理方面取得突破性进展,如物体定位[40]2015年深海团队、脸部[43]识利用卷积神经网络对别[41]和人体姿势估计[42]等。
3万个例子进行121种浮游生物分类。Denton等[44]利用卷积神经网络通过用户的性别、年龄、城市和图片等特征进行整合。在Facebook上对用户上传的图片进行标签、分类。2.2.1 图像包括很多层信息图像语义分割
,例如这幅图像是否有特定的物体(如汽车)。所谓的图像语义分割,就是描述图片中包含哪些物体、包括街头的场景分割、三维
扫描、对3⁃D人体解剖分割定位等。因为是基于像素分类方法,所以这个问题会带来巨大的计算量。2015年Long等[45]提出了利用全卷积网络(fullyconvolutional义分割。同年networks,FCN,)Behnke等[46]提出了语义的概念去进行图像语RGB⁃D感知器的概念,使得基于深度学习的图像语义分割得到进一步发展。2.2.2 算法Linkface人脸识别
。无论场景中是单人还是多人开发了基于深度学习的人脸检测创新
,是侧脸、半遮挡还是模糊等情景中,均能进行精准检测。据全球最具权威的人脸检测评测平台FDDB最新数据,2014Linkface年Facebook的人脸检测算法达到了世界领先的水平开发一种叫DeepFace[41]技术。其。贡献在于对人脸对齐和人脸表示环节的改进。通过
革新的3⁃D人脸建模勾勒出脸部特征,然后通过颜色过滤做出一个刻画特定脸部元素的平面模型。Facebook标签化的人脸池建立了一个来自于,Facebook称这是迄今为止最大规4030个人的440万张模的人脸池。它是一个拥有9层的深度卷积神经网络,网络有超过1.2亿个参数。该技术在LFW数据集上取得了97.25%的平均精度,已经接近人类的识别水平。2015年Google提出FaceNet[47]进行人脸验证。它直接学习图像到欧式空间上点的映射,然后基于这个编码再做人脸识别、人脸验证和人脸聚第5期 刘帅师,等:深度学习方法研究新进展·571·
类等。其中两张图像所对应的特征欧式空间上的点之间的距离直接对应着两个图像是否相似。FaceNet齐。FaceNet并没有像得到最终表示后不用像DeepFace和DeepIDDeepID那样需要对那样需要再训练模型进行分类,直接计算距离就可以,简单而有效。在Youtube数据集上测试准确率为95.12%。
目前,传统人脸识别技术主要集中在可见光谱的范畴,对于跨模态人脸识别问题尚无好的解决方法。2015年Sarfraz等[48]利用深度神经网络,成功将红外热图像与可见光图像进行匹配,实现了跨模态人脸匹配。该网络可以在短短35ms的时间内,能够将红外热图像匹配到其可见光图像,可以实现实时运行。2.2.3 目前表情识别
,大部分研究者把卷积神经网络应用在表
情识别上。例如,2013年Liu等[49]提出了构建一个新的深层结构(AU⁃awaredeepnetworks,AUDN),基于卷积神经网络进行特征提取,连接SVM做表情分类器。2014年Ouellet等[50]使用卷积神经网络对电脑前的游戏玩家进行实时表情识别。Song等[51]利用了一种5层卷积神经网络,实现了每幅图像在服务器的预测时间为50ms,每个图像的往返时间小于100ms,在智能手机上实现实时表情识别。Ijjina等[52]用Kinect深度传感器得到的图片作为表情识别的对象,并在卷积神经网络进行表情识别取得了较好的效果。Byeon等[53]使用3D卷积神经网络去识别视频人脸表情。文献[54]证明在实时表情识别系统,卷积神经网络比深层神经网络具有更好的效果。
还有一部分研究者利用其他深度学习模型进行表情识别。例如,McLaughlin等[55]提出一种基于深度信念网络的实时表情识别系统,但只能检测4种表情。2013年He等[56]利用深度玻尔兹曼机对红外热图像进行表情识别。
此外,一些研究者们将多种深度学习模型结合起来进行表情识别。例如,2014年LYU等[57]将深度信念网络与自编码器相结合来进行识别。2015年Jung等[58]将卷积神经网络与深度神经网络合起来。Kahou等[59]提出一种视频表情识别系统EmoNets。深度信念网络捕捉音频信息卷积神经网络捕捉视频信息,自编码器捕捉人肢体,检测人脸。行为。该理论赢得了2013EmotiW挑战赛,在2014
的数据集上准确率达到47.67%。2.3 Sashihithlu自然语言处理
等[60]采用递归自编码方法(recur⁃
sive析问题auto。encoders,RAE)Johnson等[61]提出一种基于卷积神经网络来解决较为复杂的情感分直接在词袋模型(BoW)上用做文本分类任务。2015镜头(word年谷歌的lens)Good实时视频翻译性能和通话实时翻译等利用深度神经网络开发了字功能。它可以实现拿着手机摄像头对着实物,实物中的文字就可被即时识别出,并被翻译成目标语言,目前该技术可支持20多种语言的即时视觉翻译。更重要的是即使它在不联网的状态下也能进行工作,所有深度学习的庞大计算都是在手机上完成的。李婷等[62]利用堆叠去噪自动编码器(stackdenoising2.4 autoencoder,SDAE)医疗应用
识别盲文。
结合起来Deep,DeepGenomicsGenomics公司开始把基因组和深度学习
已经推出了他们的第一款产品SPIDEX。只需将测试结果和细胞类型导入,SPIDEX并计算出该变异与疾病之间的关系便可分析出某一变异对RNA。剪切的影响Koziol等[63],利用一种受限玻尔兹曼机用于肝细胞癌的分类。2015年Fauw等[64]利用20多层的卷积神经网络检测糖尿病视网膜病变的眼底图像。
3 3.1 模型总结及面临的挑战
本文对深度学习模型进行分类深度学习模型
、概括,在此以模
型的结构为序,对深度学习模型进行总结如表1~表3所示是以卷积神经网络1)。
模型结构。目前、深度信念网络,大部分的深度学习模型都
、深度玻尔兹曼机、堆叠自动编码器等几种基本模型为基础演变而来。除此之外,还有像递归神经网络(recurrentneu⁃ralnet,DCN)networks,RNN)[74][75]等其他类型的新型深度模型、深度凸形网络(deep。
convex有有监督学习和无监督学习2)训练方式。深度学习模型的训练方式主要
2种。训练方式因模型结构而异,一般以卷积神经网络为核心的模型一般采取有监督训练方式。而以受玻尔兹曼机与自动编码器为核心的模型,大部分采用无监督学习方式预训练,配合有监督微调模式进行参数训练。
·572·智 能 系 统 学 报 第11卷表1 典型深度学习模型Table1 Typicaldeeplearingmodel
序号模型名称卷积神经网络(CNN)3D卷积神经网络
模型描述常用训练方式适用范围图像处理,自然语言处理,视频分析
作者,文献,年份LecunY,[65],1990
多个卷积层和下采样层交有监督,运用前向替组成,以及一个全连接
层
传播和后向传播(BP)相结合方式
适用于视频中,通过堆叠有监督,通过随机多个连续的帧组成一个立对角Levenberg⁃方体,然后在立方体中运用3D卷积核,捕捉在时间和空间维度都具有区分性
的特征
Marquardt法来优化训练
视频分析JiS,[66],2013
1
(3D⁃CNN)
金字塔卷积神经网络与CNN不同,是Siamese(PCNN)
深度信念网络(DBN)2
网络,由多个金字塔组成多个RBM累加而成的深
度网络
有监督逐层训练无监督贪婪逐层预训练,有监督微调
(BP)
图像处理FanH,[13],2014
语音识别,图像处HintonGE,[67],2006理,自然语言处理
卷积深度信念网络
(CDBN)稀疏深度信念网
(SDBN)深度玻尔兹曼机
(DBM)
将DBN中RBM替换成
CRBM
将DBN中RBM替换成
SRBM
无监督贪婪逐层预训练,有监督微调无监督贪婪逐层预训练,有监督微调
图像处理,语音信号处理图像处理
LeeH,[21],2011
HalkiasXC,[22]2014
多个RBM累加而成,与无监督贪婪逐层预DBN不同层间均为无向连训练,再进行场均接,省略了由上至下的反值算法,有监督微馈参数调节
调(BP)
图像处理SalakhutdinovR,[68],2009
3
卷积深度玻尔兹曼机将DBM中RBM替换成无监督贪婪逐层预
(CDBM)
CRBM
训练,再进行场均值算法,有监督
微调
堆叠自动编码器
(SAE)
多个AE累加而成
无监督贪婪逐层预训练,再将网络展开,有监督微调
(BP)
堆叠去噪自动编码器将SAE中AE替换成DAE无监督贪婪逐层预
(SDAE)
训练,再将网络展开,有监督微调
(BP)
图像处理杜骞,[69]2014
图像处理BengioY,[70],2009
4
图像处理,自然语言处理
VincentP,[25],2008
第5期 刘帅师,等:深度学习方法研究新进展
表2 玻尔兹曼机及其演化模型
Table2 Boltzmannmachineanditsevolutionmodel
序号123456
模型名称
玻尔兹曼机(BM)受玻尔兹曼机(RBM)卷积受玻尔兹曼机(CRBM)稀疏受玻尔兹曼机(SRBM)稀疏租受玻尔兹曼机(SGRBM)分类受玻尔兹曼机(CRBM)
模型描述
随机神经元组成的二值随机机器,一种
随机递归神经网络
与BM结果相同,只是没有层间的连接
三层两部无向图模型,由可视层、检测层、池层组成
在RBM的对数似然目标函数上,
增加了一个稀疏惩罚项将组稀疏方法应用到RBM利用包含二值随机变量的隐单元来拟合输入特征与类标签的联合分布表3 自动编码器及其演化模型
Table3 Automaticencoderanditsevolutionmodel
序号12345
模型名称
自动编码器(AE)去噪自动编码器(DAE)稀疏自动编码器(SAE)收缩自动编码器(CAE)卷积自动编码器(CAE)
模型描述
多层神经网络,从输入层到隐藏层为编码
器,从隐藏层到输出层为解码器在AE的输入层引入随机噪声对AE的升维和降维过程加以
AE加入稀疏性
作者,文献,年份
·573·
作者,文献,年份HintonGE,[71],1986SmolenskyP,[72],1986LeeH,[15],2009LeeH,[16],2008罗恒,[17],2011LarochelleH,[18],2008
RumelhartDE,[73],1986VincentP,[25],2008BengioY,[26],2007MasciJ,[28],2011RifaiS,[27],2011
3)应用领域。深度学习在语音处理、计算机视
AE每个隐含层的节点都是用来做卷积
上的无监督学习。因此,如何做到完全意义上的无监督学习是未来研究的重点。
3)减少训练时间。当待解决的问题过于复杂,
觉的应用已十分广泛,许多技术已用于商用。但是,在自然语言处理的应用尚不成熟[1]。一些研究者尝试用递归神经网络去解决这一问题。文献[74⁃78]对递归神经网络在文本生成和机器翻译的应用做出了详细的描述。目前,递归神经网络的变种模型长短时记忆模型(longshort⁃termmemory,LSTM)被证明比传统的递归神经网络更加有效[79]。3.2 面临的挑战
1)模型结构创新。自Hinton提出深度学习的思想以来,已经涌现出大量的深度学习模型,然而大部分的模型的构建依旧停留在以简单模型(如AE,RBM等)叠加而成的深度网络,或是几种深度学习模型简单相叠加,来构建深度学习模型。这种形式的模型往往不能发挥深度学习的优势,是否存在其他有效的深度学习模型,是否可以让深度学习与其他方法进行融合,这是今后要研究的问题。
2)训练方式的改进。深度学习已经在各个领域取得了突破性的成果,大部分深度学习模型均采用无监督学习方式。但是,离完全的无监督学习还有一定的距离。目前的深度学习模型在无监督预训练后,仍然需要有监督的微调,并没有做到完全意义
使深度学习模型参数增加时,会导致模型的训练时间逐渐上升,是否可以在不改变硬件性能的条件下,对算法进行改进,在保证精度的同时,提高训练速度。所以,减少训练时间,仍是深度学习需要努力的研究方向。
4)实现在线学习。目前,深度学习的算法大多采用无监督预训练与有监督微调配合的方式进行。然而,一旦在线环境下引入全局微调,会使结果陷入局部最小值。因此,这种训练算法不利于在线学习。是否可以改进算法进而将深度学习应用于在线环境,这是未来要思考的问题。
5)克服对抗样本。通过稍微修改实际样本,而
构造出的合成样本,会使一个分类器以高置信度认为它们属于错误的分类,这就是深度学习对抗样本问题[80⁃82]。研究如何克服它们可以帮助我们避免潜在的安全问题。然而,目前为止并没有好的方法出现。一些研究人员尝试使用常见的正则化方法(包括均化多重模型、均化图像多采样观测等)去解决这一问题,但是并没有取得良好的进展。因此,深
·574·智 能 系 统 学 报 第11卷
191⁃200.
Jiangsuuniversity:naturalscienceeditions,2015,36(2):gorithmsforclassification:acomparisononhandwrittendigitrecognition[M]//OHJH,KWONC,CHOS.NeuralNet⁃WorldScientific,1995:261⁃276.
works:TheStatisticalMechanicsPerspective.Singapore:[9]陈先昌.基于卷积神经网络的深度学习算法与应用研究
度学习的对抗样本问题仍然是待解决的难题之一。
4 结束语
[8]LECUNY,JACKELLD,BOTTOUL,etal.Learningal⁃
本文详细描述了几种典型的深度学习模型的构
造原理,以及训练方法。并且,对近3年深度学习在各个领域的应用进行了概括。最后,在现有深度学习模型的基础上讨论了深度学习面临的挑战。
深度学习自提出以来已经在许多领域取得了突破性的进展。但是,在深度学习实际应用的过程中,往往为了要构造合适的深度学习模型而大费周章。因为目前的深度学习模型大部分是为了解决某一特定问题,而量身定做的。如果用于解决其他问题,效[10]果往往不尽如人意。今后研究者们能否通过改进结构与算法,研究出一种可以应对大部分问题深度学习算法,这是未来要思考的难题。
参考文献:
[11][1]LECUNNature,2015,Y,BENGIO521(7553):Y,HINTON436⁃444.
G.Deeplearning[J].[2]林妙真理工大学.基于深度学习的人脸识别研究,2013.
[D].大连:大连
[12]BRUNALINlearning[D].Miaozhen.ogy,2013.
Dalian,ResearchChina:onfaceDalianrecognitionUniversitybasedofTechnol⁃ondeep[3]HINTONGE,SALAKHUTDINOVRR.Reducingthedi⁃
[2006,mensionality刘建伟313(5786):ofdata504⁃507.withneuralnetworks[J].Science,
[4]应用研究,刘媛,2014,,罗雄麟31(7):.深度学习研究进展1921⁃1930,1942.
[J].计算机
[14]LIUJianwei,LIUYuan,learningLUO[J].Xionglin.ApplicationResearchresearchandde⁃computers,velopmenton2014,deep31(7):1921⁃1930,1942.
of[5]余滨的钥匙,李绍滋[J].工程研究,徐素霞,⁃跨学科视野中的工程等.深度学习:开启大数据时代
,2014,6(3):YUBin,233⁃243.
LIShaozi,[15]ofsteppingintotheeraXUofSuxia,bigdata[J].etal.DeepJournallearning:akey[6]ing尹宝才studies,工业大学学报,王文通2014,,,2015,王立春6(3):41(1):.233⁃243.
ofengineer⁃深度学习研究综述48⁃59.
[J].北京
YIN[16]LEEdeepBiaocai,learning[J].WANGWentong,WANGLichun.Reviewof[7]gy,张建明2015,JournalofBeijinguniversityoftechnolo⁃[J].江苏大学学报,詹智财41(1):,成科扬48⁃59.
:自然科学版,等.深度学习的研究与发展
200.
,2015,36(2):191⁃[17]ZHANGReviewonJianming,developmentZHANofZhicai,deeplearningCHENG[JKeyang,].Journaletal.
of
[D].CHEN杭州deepHangzhou,learningXianchang.:浙江工商大学basedResearch,2014.
ononalgorithmandapplicationof李卫.深度学习在图像识别中的研究及应用China:ZhejiangconvolutionalGongshangneuralUniversity,network[2014.[D].汉:武汉理工大学,2014.
D].武
LIimageWei.nology,recognition[D].Theresearchand2014.
Wuhan:applicationWuhanofUniversitydeeplearningofTech⁃inJItionalShuiwang,IEEEneuraltransactionsnetworksXUWei,patternforYANGhumanMing,analysisactionetandrecognitional.3Dconvolu⁃
machineintelli⁃[J].gence,2013,worksJ,ZAREMBA35(1):on221⁃231.
W,SZLAMEprintand]73.79FAN/Arxiv:locallyarxiv.orgArxiv,2013.connectedA,etal.Spectralnet⁃
Haoqiang,/pdfCAO/1312.6203v3.pdf.[networks2014⁃10⁃10]ongraphs[EBhttp://120.52./OL].LearningZhimin,JIANGYuning,etal.
iv:王冠皓arxiv.orgArxiv,deep/pdf2014.face/1403.2802v1.pdf.[2014representation[-10-10]EBhttp:/OL].//120.52.73.80EprintArx⁃/征表示方法,徐军[J]..基于多级金字塔卷积神经网络的快速特
计算机应用研究,2015,32(8):2492⁃2495.
WANGmethodnetwork[J].basedGuanhao,onmulti⁃levelXUJun.Fastpyramidfeatureconvolutionrepresentation(8):Applicationresearchofcomputers,2015,neural32LEEtionalH,2492⁃2495.
ingofdeepGROSSEhierarchicalbeliefnetworksR,RANGANATHrepresentations[C]forscalableR,/unsupervisedetal.Convolu⁃
learn⁃ing.26thNewAnnualYork,InternationalNY,USA,Conference2009:609⁃616.
on/ProceedingsMachineLearn⁃ofthe
netmodelH,EKANADHAMforvisualareaV2[C]C,NG/A/AdvancesY.SparseindeepNeuralbelief
formationIn⁃BritishonNeuralProcessingColumbia,InformationSystemsCanada,Processing20:21st2007:873⁃880.Systems.AnnualVancouver,
Conference上海罗恒:.基于协同过滤视角的受限玻尔兹曼机研究上海交通大学,2011.
[D].
LUOfilteringHeng.perspective[RestrictedD].BoltzmannShanghai,machines:China:aShanghaicollaborativeJiao13第5期 刘帅师,等:深度学习方法研究新进展·575·
[18]TongLAROCHELLEUniversity,2011.
criminativeingsoftherestrictedH,BENGIO25thInternationalBoltzmannY.machines[ClassificationConferenceC]on/using/Proceed⁃dis⁃
Learning.NewYork,NY,USA,2008:536⁃543.Machine[19]张春霞学学报,,姬楠楠2015,32(2):,王冠伟159⁃173.
.受限波尔兹曼机[J].工程数
ZHANGBoltzmannChunxia,mathematics,machinesJI2015,[Nannan,32(2):J].ChineseWANG159⁃173.journalGuanwei.ofengineeringRestricted[20]刘银华别研究.[D].LBP江门和深度信念网络在非条件下人脸识
:五邑大学,2014.
LIUstrainedYinhua.Theresearchoffacerecognitionunderuncon⁃[21]Jiangmen:conditionLEEWuyiviaLBPanddeepbeliefnetwork[D].visedH,tionallearningGROSSEUniversity,deepbeliefofhierarchicalR,RANGANATH2014.
networks[representationsR,etJ].Communicationswithal.Unsuper⁃
convolu⁃ACM,2011,54(10):95⁃103.
ofthe[22]HALKIASdeep[beliefXnetworks:C,PARISusingS,GLOTINtheH.Sparsepenaltyin
[23]3533.pdf.
EB/OL].[2014⁃05⁃08].http:mixed//arxiv.normorg/pdfconstraint/1301.LIUdeepYan,ZHOUShusen,CHENQingcai.[24]tern郑胤recognition,beliefnetworksforvisualdataclassification[Discriminative
J].Pat⁃别中的新进展,陈权崎,[章毓晋2011,J].中国图象图形学报.44(10深度学习及其在目标和行为识
/11):2287⁃2296.,2014,19(2):
175⁃184.
ZHENGing[J].andJournalitsYin,newCHENofprogressQuanqi,imageandingraphics,objectZHANGand2014,behaviorYujin.Deep19(recognitionlearn⁃2):175⁃
[25]184.
VINCENTtractingP,LAROCHELLEH,BENGIOY,toencodersandConference[composingC]//Proceedingsrobustfeaturesofthewith25thdenoisingetal.Ex⁃
Internationalau⁃2008:1096⁃1103.
onMachineLearning.NewYork,NY,USA,[26]BENGIOlayer⁃wiseY,trainingLAMBLINofdeepP,POPOVICInetworks[CD,]/et/Advancesal.Greedy
Neuralin
ConferenceInformationProcessingSystems19:20th[27]Vancouver,onRIFAIauto⁃encoders:S,VINCENTBritishNeuralColumbia,InformationP,MULLERCanada,ProcessingAnnualX,2006:Systems.etal.153⁃160.
Contractive
Machine[C]//Proceedingsexplicitoftheinvariance28thInternationalduringfeatureConferenceextractionLearning.Bellevue,WA,USA,2011.
on
[28]MASCIlutionalJ,[C]//Proceedingsauto⁃encodersMEIERU,CIREŞANofthefor21sthierarchicalD,etal.Stackedconvo⁃
InternationalfeatureConferenceextractionon
many,Artificial2011:Neural52⁃59.
Networks,PartI.BerlinHeidelberg,Ger⁃[29]王雅思哈尔滨.:深度学习中的自编码器的表达能力研究哈尔滨工业大学,2014.
[D].
WANGcodersinYasi.deepRepresentationlearning[D].abilityHarbin:researchHarbinofInstituteauto⁃en⁃Technology,2014.
of[30]李远豪究[D]..江门基于深度自编码器的人脸美丽吸引力预测研
:五邑大学,2014.
LItionYuanhao.versity,based2014.
onAdeepstudyautoencoder[D].forfacialbeautyJiangmen:attractivenessWuyipredic⁃Uni⁃[31]林洲汉类方法研究.基于自动编码机的高光谱图像特征提取及分
[D].哈尔滨:哈尔滨工业大学,2014.LINclassificationZhouhan.InstituteofTechnology,basedHyperspectralonautoencoders[imagefeature2014.D].Harbin:extractionHarbinand[32]曲建岭与展望,[J].杜辰飞计算机与现代化,邸亚洲,等,.2014(8):深度自动编码器的研究
128⁃134.QUJianling,DUChenfei,DIYazhou,etal.Researchand[33]林少飞2014(8):prospectof128⁃134.
deepauto⁃encoders[J].Jisuanjiyuxiandaihua,手写数字分类,盛惠兴[J].,李庆武微处理机.基于堆叠稀疏自动编码器的
,2015(1):47⁃51.LINdigitalShaofei,classificationSHENGbasedHuixing,onthestackedLIQingwu.sparseHandwrittenautoencod⁃[34]ers[J].陈硕.深度学习神经网络在语音识别中的应用Microprocessors,2015(1):47⁃51.[D].广州:华南理工大学,2013.
研究
CHENapplicationsShuo.inResearchspeechrecognitionofdeeplearning[D].Guangzhou,neuralnetworksChi⁃[35]na:郭丽丽South,丁世飞ChinaUniversity.深度学习研究进展ofTechnology,[J].2013.2015,42(5):28⁃33.
计算机科学,
GOU[36]ing[J].Lili,VANDENComputerDINGShifei.OORDscience,ResearchA,DIELEMAN2015,progress42(5):S,SCHRAUWEN28⁃33.ondeeplearn⁃Deepcontent⁃basedmusicrecommendation[M]//Ad⁃B.
AnnualvancesinNeuralInformationProcessingSystems26:27th[37]HANNUNtems.LakeConferenceTahoe,on2013:Neural2643⁃2651.InformationProcessingSys⁃scalingA,CASEC,CASPERJ,etArxiv:Arxiv,upend⁃to⁃end2014.[2014⁃12⁃19]speechrecognition[EBal.Deephttps://arxiv.org/OL].speech:
Eprint/pdf/[38]1412.5567v2.pdf.
[J].余凯,计算机研究与发展贾磊,陈雨强.深度学习的昨天,2013,50(9):1799⁃1804.、今天和明天
YUsearchday,Kai,today,JIAanddevelopment,andLei,tomorrowCHENYuqiang.2013,[J].50(9):JournalDeeplearning:1799⁃1804.ofcomputeryester⁃re⁃
·576·智 能 系 统 学 报 第11卷
Proceedingsofthe2014IEEEInternationalConferenceon[51]IJJINAEP,MOHANCK.Facialexpressionrecognition
usingkinectdepthsensorandconvolutionalneuralnet⁃ConferenceonMachineLearningandApplications.De⁃troit,MI,2014:392⁃396.
works[C]//Proceedingsofthe201413thInternational[52]BYEONYH,KWAKKC.Facialexpressionrecognition
using3Dconvolutionalneuralnetwork[J].Internationaljournalofadvancedcomputerscienceandapplications,ConsumerElectronics.LasVegas,NV,2014:564⁃567.
[39]GIRSHICKR,DONAHUEJ,DARRELLT,etal.Rich
featurehierarchiesforaccurateobjectdetectionandseman⁃ticsegmentation[C]//Proceedingsofthe2014IEEECon⁃ferenceonComputerVisionandPatternRecognition.Co⁃[40]TAIGMANY,YANGMing,RANZATOMA,etal.Deep⁃
verification[C]//Proceedingsofthe2014IEEEConfer⁃enceonComputerVisionandPatternRecognition.Colum⁃bus,OH,2014:1701⁃1708.
lumbus,OH,2014:580⁃587.
Face:closingthegaptohuman⁃levelperformanceinface
[53]2014,JUNG5(12):H,LEE107⁃112.
learning⁃basedfacialS,PARKexpressionS,etrecognitional.Development[54]MCLAUGHLINJapanFrontiersJointofWorkshopComputeronVision2015:1⁃4.
(FCV),2015nitionwithstanford.deep⁃beliefT,MAIedu/proj2010networksL,BAYANBAT/McLaughlinLeBayanbat⁃Rec⁃[EB/OL].[55]HEognizingEmotionsWithDeepBeliefNets.pdf.
cs229.pressionShan,recognitionWANGShanfei,usingdeepLANWuwei,thermalAssociationinfraredimages[C]Conference//ProceedingsBoltzmannIntelligentmaineInteraction.Geneva,on2013:Affective[56]LVrecognitionYadan,viaFENGdeepZhiyong,learningXU[CChao.239⁃244.
2014]//ProceedingsKong,InternationalChina,2014:Conference303⁃308.
onSmart[57]JUNGH,LEES,PARKS,facialetal.Deepexpression[58]120.52.73.75[EBance⁃geometry/OL].EprintnetworkKAHOU/arxiv.orgArxiv:for/pdfArxiv,2015.[2015⁃6⁃5].http:/1503.01532v1.pdf.
EmoNets:SE,BOUTHILLIERX,LAMBLINInterfaces,tionrecognitionMultimodalinvideo[deepJ].learningJournalapproaches2015,10(2):1⁃13.
on[59]SASHIHITHLUisusingrecursiveS,SOMANautoencodersSS.[ComplexEB/OL].23426251.
CiteSeerX,2013.[2015⁃9⁃30].https://core.ac.uk[60]JOHNSONR,ZHANGTong.Effectiveuse[EBfortextcategorizationwithconvolutional[61]tp:李婷///OL].120.52.73.79EprintArxiv:/arxiv.orgArxiv,2014./pdf/1412.1058.pdf.
[2014⁃10⁃10].代化.,基于深度学习的盲文识别方法2015(6):37⁃40.
[LIJisuanjiTing.yuAdeepxiandaihua,learing2015(6):methodfor37⁃40.
braille[62]KOZIOLBoltzmannJmachinesA,TANforEM,classificationDAILiping,ofhepatocellularsystem[of21stKoreaC]deep
/-/Emotionrecog⁃
2008http://machineal.Facialfromex⁃
the2013Hu⁃andexpression
ofHongthe
recognitionappear⁃
//Pforetemo⁃
al.
UserCore./displayac.Uk:
/ofwordnetworks
order
ht⁃计算机与现
al.Restricted
car⁃[41]TOSHEVA,SZEGEdYC.DeepPose:humanposeestima⁃
Recognition.Columbus,OH,2014:1653⁃1660.nanne.github.io/2015/03/17/plankton.html.tionviadeepneuralnetworks[C]//Proceedingsofthe2014IEEEConferenceonComputerVisionandPattern[42]DIELEMANS.Classifyingplanktonwithdeepneuralnet⁃
works[EB/OL].(2015⁃03⁃17)[2015⁃05⁃30].http://be⁃[43]DENTONE,WESTONJ,PALURIM,etal.Usercondi⁃
the21thACMSIGKDDInternationalConferenceonKnowl⁃[44]LONGJ,SHELHAMERE,DARRELLTFullyconvolu⁃
tionalnetworksforsemanticsegmentation[J].IEEECon⁃79(10):1337⁃1342.
ferenceonComputerVision&PatternRecognition.2015,2015:1731⁃1740.
N.etofComputingFacialComputing.temporaltionalhashtagpredictionforimages[C]//ProceedingsofedgeDiscoveryandDataMining.NewYork,NY,USA,
[45]SCHWARAM,SCHULZH,BEHNKES.RGB⁃Dobject
recognitionandposeestimationbasedonpre⁃trainedconv⁃mation.Seattle,WA,2015:1329⁃1335.
Computer
Vision
and
2015IEEEInternationalConferenceonRoboticsandAuto⁃olutionalneuralnetworkfeatures[C]//Proceedingsofthe
[46]SCHROFFF,KALENICHENKOD,PHILBINJ.FaceNet:
Aunifiedembeddingforfacerecognitionandclustering[C]//
(CVPR),Boston,USA,2015:815⁃823.
Pattern
Recognition
[47]SARFRAZMS,STIEFELHAGENR.Deepperceptual
mappingforthermaltovisiblefacerecognition.[EB/OL]73.80/arxiv.org/pdf/1507.02879v1.pdf.
EprintArxiv:Arxiv,2015.[2015⁃12⁃23].http://120.52.
Multimodalsentimentanalys⁃
[48]LIUMengyi,LIShaoxin,SHANShiguang,etal.Au⁃a⁃
waredeepnetworksforfacialexpressionrecognition[C]//ognition.Shanghai,China,2013:1⁃6.
Proceedingsofthe201310thIEEEInternationalConfer⁃enceandWorkshopsonAutomaticFaceandGestureRec⁃[49]OUELLETS.Real⁃timeemotionrecognitionforgamingu⁃
1408.3750v1.pdf.
Arxiv:Arxiv,2014.[2014⁃7⁃16].https://arxiv.org/pdf/robustfacialexpressionrecognitiononasmartphone[C]//singdeepconvolutionalnetworkfeatures[EB/OL].Eprint
neuralJ].recognition[J].et[50]SONGI,KIMHJ,JEONPB.Deeplearningforreal⁃time
第5期 刘帅师,等:深度学习方法研究新进展
418069.
cinoma[J].Computationalbiologyjournal,2014,2014:[EB/OL].2015[2015⁃07⁃28].http://jeffreydf.github.io/diabetic⁃retinopathy⁃detection.
·577·
recurrentneuralnetworklanguagemodel[C]//Proceedings[76]LIUShujie,YANGNan,LIMu,etal.Arecursiverecur⁃
[C]//Proceedingsofthe52ndAnnualMeetingoftheAs⁃sociationforComputationalLinguistics.Baltimore,Mary⁃[77]SUTSKEVERI,VINYALSO,LEQV.Sequencetose⁃
quencelearningwithneuralnetworks[EB/OL].2014.land,USA,2014:1491⁃1500.
SpeechandSignalProcessing.Prague,2011:5528⁃5531.
[63]FAUWJD.Detectingdiabeticretinopathyineyeimages[64]CUNYL,BOSERB,DENKERJS,etal.Handwritten
digitrecognitionwithaback⁃propagationnetwork[C]//Francisco,CA,USA,1990:396⁃404.
AdvancesinNeuralInformationProcessingSystems2.San[65]JIShuiwang,XUWei,YANGMing,etal.3Dconvolu⁃
ofthe2011IEEEInternationalConferenceonAcoustics,rentneuralnetworkforstatisticalmachinetranslation
tionalneuralnetworksforhumananalysisactionandrecognitiongence,IEEEtransactions2013,35(1):onpattern22l⁃231.
machine[66]HINTONalgorithmGforE,deepOSINDEROS,TEHYW.Afast[67]2006,SALAKHUTDINOV18(7):1527⁃1554.
beliefnets[J].Neuralcomputation,machines[C]R,HINTONGE.Deepferenceter,Florida,onArtificial//ProceedingsUSA,2009:Intelligenceofthe448⁃455.
and12thStatistics.International[68]杜骞华中师范大学.深度学习在图像语义分类中的应用,2014.
[DUclassification[D].Qian.Applicationty,2014.
Wuhan:ofdeepCentrallearningChinainNormalimage[69]BENGIOdationsandY.trendseLearningindeepmachinearchitectureslearning,for2009,AI[[70]HINTON127.inGE,SEJNOWSKITJ.Learninganding:Boltzmannmachines[M][71]SMOLENSKYbridge,ExplorationsMA,USA:inMITtheMicrostructure//ParallelDistributedPress,ofCognition.tems:tributedfoundationsP.InformationProcessing:ofExplorationsharmonyprocessing1986.
theoryinthe[M]in/dynamical/ParallelCognition.Cambridge,MA,USA:MITPress,Microstructure[72]RUMELHARTLearningrepresentationsDE,HINTONNature,1986,323(6088):by533⁃536.
back⁃propagatingGE,WILLIAMS[73]MIKOLOVrentT,KARAFIÁTM,BURGETL,etingsneuraloftheInterspeechnetworkbased2010language11thAnnualmodel[ConferenceC]Internationalhari,Chiba,SpeechJapan,2010:Communication1045⁃1048.
Association.[74]DENGtectureLi,YUDong.Deepconvexnet:ascalableofCommunicationthe12thforspeechAnnualpatternAssociation.Conferenceclassification[C]//2299.
Florence,oftheInternationalItaly,2011:[75]MIKOLOVT,KOMBRINKS,BURGETL.Extensionsintelli⁃[J].[2014⁃10⁃12].http://120.52.73.79/arxiv.org/pdf/1409.[78]GRAVES3215v3.pdf.
learning
nitionA,MOHAMEDingsofwiththedeep2013recurrentAIEEEInternationalneuralR,HINTONnetworks[G.ConferenceC]Speech/on/Proceed⁃recog⁃
Acous⁃2013:tics,Speech6645⁃6649.
andSignalProcessing.Vancouver,BC,Clearwa⁃Con⁃[79]SZEGEDYtriguingpropertiesC,ZAREMBAofneuralW,networksSUTSKEVER[EB/OLI,].etEprint
al.In⁃
武汉:
Arxiv:semantic[80]arxiv.orgArxiv,2014.[2014⁃10⁃12].NGUYEN/pdf/1312.6199v4.pdf.http://120.52.73.78/worksA,YOSINSKIJ,CLUNEJDeepunrecognizableareeasilyneuralnet⁃
/ComputerVisionandPatternFoun⁃
Recognition.IEEE,images[C]fooled:HighBoston,USA,2015:427⁃436.
/confidencepredictionsfor
1⁃[81]LIPTON[EB/OL].ZC.[2015⁃07⁃28].(Deeplearning’shttp:deep//www.flaws)’skdnuggets.deepcomflaws
2015/
Process⁃html.
/01/deep⁃learning⁃flaws⁃universal⁃machine⁃learning.作者简介:
Cam⁃刘帅师,女,1981年生,讲师,博士,主要研究方向为模式识别、计算机视觉。
Dis⁃sys⁃
of[RJ].J.
程曦,男,1989年生,硕士研究生,主要研究方向为模式识别、机器学习。
Recur⁃
Maku⁃ofthe
archi⁃
郭文燕,女,1991年生,硕士研究生,主要研究方向为模式识别、机器Speech学习。
2296⁃
of
D].Universi⁃J].Boltzmann
2(1):relearning
1986.errorsal.//Proceed⁃Proceedings
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- xiaozhentang.com 版权所有 湘ICP备2023022495号-4
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务