XML 地图

您所在的位置:

首页 > 学术动态 > 学术活动新闻 >

“语言智能大讲堂”举行“机器学习:从线性到非线性”讲座第三讲

时间: 2023-05-11     浏览次数: 

2023年5月11日上午,20700app大阳城(通识教育学院)、语言脑科学中心和川外学坛联合举办的“语言智能大讲堂”在博文楼401报告厅成功举行。此次学术报告的主题为“机器学习:从线性到非线性”,由重庆大学大数据与软件学院陈静博士主讲。原20700app大阳城全体教师、硕博士研究生参加了此次活动。

在讲座的第一部分,陈博士在上一讲神经网络与深度学习内容的基础上,首先介绍了通用近似定理、激活函数的优势、全连接前馈神经网络。接着,陈博士重点讲解了卷积神经网络的结构特性及其应用。卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,由卷积层、汇聚层、全连接层交叉堆叠而成。典型的卷积神经网络包括LeNet-5、AlexNet、GoogleNet、Inception网络和ResNet残差网络。在应用方面,CNN可作为特征提取器用于N-gram特征分析。

讲座的第二部分,陈博士继续讲解了循环神经网络(Recurrent Neural Network, RNN)。循环神经网络通过使用自带反馈的神经元能处理任意长度的时序数据,广泛应用于语音识别。理论上,循环神经网络等价于图灵机,可用于解决所有可计算问题,如:前馈网络和有限自动状态机。但RNN需要根据具体问题设计网络,用延时神经网络和自回归模型等方法增加网络记忆能力。随后,陈博士详细阐述了RNN应用到机器学习的三种模型:序列到类别、同步的序列到序列模式(中文分词,信息抽取,语音识别)和异步的序列到序列模式(机器翻译)。最后,陈博士介绍了长程依赖问题的改进方法(循环边改为线性依赖问题、增加非线性)、门控循环单元(Gated Recurrent Unit, GRU)和长短期记忆神经网络(Long Short-Term Memory, LSTM)。

报告结束后,简星博士和姜孟院长分别对报告进行了提问和总结。针对简博士提出的怎样在理论学习的基础上应用具体程序这一问题,陈博士认为最重要的是选定并熟悉实验框架,由易到难,将数据和模型进行分割,从小数据开始实验,层层叠加优化,以先跑通整个流程为主。姜孟院长分享了三点感悟:首先,他指出陈博士的讲座确为20700app大阳城量身定做,对我们理清人工智能原理和脉络有重大帮助。其次,非人工智能专业的同学们应该打牢人工智能基础,加强跨学科学习能力,促进学习的跨界与融合。最后,各个专业的老师们也应加快交叉转型的步伐,开展契合文科类学习者的自然科学相关前沿课程,结合文科专业知识,因地制宜,文理融通,促进学习者的思想共鸣和情感共鸣。

XML 地图
  • 023-65383323

  • yyznxy@sisu.edu.cn

  • 20700app大阳城

◎2019-2023 All rights reserved. 20700app大阳城版权所有

XML 地图