当前位置: 首页  学术动态

数学学科现代分析及其应用研究所学术报告(蔡佳 广东财经大学; 林绍波 西安交通大学; 佟宏志 对外经济贸易大学)

发布者:戴 情   发布时间:2021-03-16  浏览次数:10

数据科学系列前沿讲座:

报告题目1Some Issues about Canonical Correlation Analysis and Sketch-based Image Retrieval

蔡佳 教授,广东财经大学

报告时间202131814:30-15:30

腾讯会议ID:469 529 589

https://meeting.tencent.com/s/xOgQesDWFqw9

摘要 典型相关性分析是用来探索两个多变量(向量)之间的关联关系的多元统计分析方法,它已经广泛应用于跨语言文本检索、图像检索等领域。本报告首先研究典型相关分析,核典型相关分析和条件核典型相关分析的一些理论分析和相关算法,接着介绍最近几年出现的手绘素描检索的相关算法。

报告人简介: 蔡佳,博士,广东财经大学统计与数学学院教授,硕士生导师。主要研究方向为统计机器学习,数据分析,模式识别。2009 年-2015 年曾数次访问香港城市大学,2017 年2 月-2018年2 月访问纽约州立大学奥尔巴尼分校。现为广东省高等学校“千百十人才培养工程”校级培养对象,国家自然科学基金评审入库专家,教育部科技管理系统入库专家,广东省自然科学基金评审专家。担任广东省计算数学学会常务理事,广东省计算机学会大数据专委会委员。曾参加第三届国际计算调和分析会议(上海), 第四届数学太平洋峰会(香港), 第七届曲线和曲面上的数学方法会议(挪威), 第二十五届国际机器学习会议(芬兰), 计算学习理论和实践夏令营(美国),计算学习理论会议(法国),欧洲机器学习会议(德国)等并在会上作报告。已在国内外著名期刊《IEEE Transactions on Neural Networks and Learning Systems》,《Neural Networks》,《Neural Computation》,《Journal of Multivariate Analysis》,《Engineering Applications of Artificial Intelligence》,《Neurocomputing》,《中国科学》(中英文版)发表SCI检索论文近20篇,主持和承担了国家自科(青年,面上),国家社科,教育部人文社科,国家统计局,广东省自科,广东省教育厅,广州市科技计划等20余项项目。 现为国外SCI 检索期刊IEEE Transactions on Neural Networks and Learning Systems, Neural Networks, Pattern Recognition, Engineering Applications of Artificial Intelligence, International Journal of Wavelets Multiresolution and Information Processing,Journal of Statistical Computation and Simulation等期刊的审稿专家。



报告题目2深度学习理论

林绍波教授,西安交通大学

报告时间202131910:00-11:00

腾讯会议ID:577 813 278

https://meeting.tencent.com/s/y85alWkWidaS

摘要深度学习在诸如图像处理、自然语言处理、运筹、博弈等领域取得了巨大的成功。但其成功的原因依然缺乏严格的理论解释与验证。在这种未知性下,学术界与业界掀起了深度学习浪潮,试图用深度神经网络去处理所有学习问题。很显然,在某些应用上,效果不如预期。该报告将从数学上(统计学习的角度)揭露深度神经网络的学习能力并在一定程度阐明深度学习的适用范围。特别地,该报告聚焦如下四个基本问题:

1.深度网是否一定比单层网好?

2.在什么情况下用深度学习会更有效?

3.如何设置网络的深度与宽度?

4.为什么深度网在大数据时代取得这么大成功?

报告人简介:林绍波,西安交通大学管理学院教授,博导。研究方向为:分布式学习理论,深度学习理论及强化学习理论。在JMLR, IEEE TPAMI, SIAM-JNA,ACHA等JCR一区期刊发表论文50余篇,主持或以核心成员参与国家级课题9项。



报告题目3Distributed Least Squares Prediction for Functional Linear Regression

佟宏志 教授,对外经济贸易大学

报告时间202131914:00-15:00

腾讯会议ID:896 303 505

https://meeting.tencent.com/s/dxHMu2RgERLZ

摘要To cope with the challenges of memory bottleneck and algorithmic scalability when massive data sets are involved, we propose a distributed least squares procedure in the framework of functional linear model and reproducing kernel Hilbert space. To allow the number of the processers (partitioned data subsets) to increase as the size of the data, in addition to the labeled data we also input some unlabeled data to construct a semi-supervised approach. A rigorous statistical analysis demonstrates the feasibility of distributed schemes in functional setting. We show that the minimax optimal convergence rates for prediction are preserved, provided enough unlabeled data are available.

报告人简介:佟宏志,对外经济贸易大学统计学院教授,2008年毕业于北京大学获得基础数学博士学位。主要研究方向为统计学习与机器学习理论。在国内外知名学术期刊以第一作者发表论文20多篇。


邀请人向道红

欢迎数学和计算机专业的教师和研究生参加!