推荐几个出论文的好方向

推荐几个出论文的好方向

允中 发自 凹非寺
量子位 编辑 | 公众号 QbitAI

加入AI行业拿到高薪仅仅是职业生涯的开始。现阶段AI人才结构在不断升级,对AI人才的要求也不断升高,如果对自己没有很高的要求,其实很容易被快速发展的趋势所淘汰。

为了迎合时代的需求,贪心科技推出了《机器学习高端训练营》。这个训练营的目的很简单:想培养更多高端的人才,帮助那些即将或者目前从事科研或已从事AI行业的朋友提高技术深度。

本期已经是我们开设的第5期,我们对课程内容做了大幅度的更新,一方面新增了对前沿主题的讲解如图神经网络(GCN,GAT等),另外一方面对核心部分(如凸优化、强化学习)加大了对理论层面上的深度。除此之外,也会包含科研方法论、元学习、解释性、Fair learning等系列主题。目前在全网上应该找不到类似体系化的课程。课程仍然采用全程直播授课模式。

那什么样的人适合来参加高阶班呢?

  • 从事AI行业多年,但技术上感觉不够深入,遇到了瓶颈;
  • 停留在使用模型/工具上,很难基于业务场景来提出新的模型;
  • 对于机器学习背后的优化理论、前沿的技术不够深入;
  • 计划从事尖端的科研、研究工作、申请AI领域研究生、博士生;
  • 打算进入顶尖的AI公司如Google,Facebook,Amazon, 阿里等;
  • 读ICML,IJCAI等会议文章比较吃力,似懂非懂,无法把每个细节理解透;

01 课程大纲

第一部分:凸优化与机器学习

第一周:凸优化介绍

  • 从优化角度理解机器学习
  • 优化技术的重要性
  • 常见的凸优化问题
  • 线性规划以及Simplex Method
  • Two-Stage LP
  • 案例:运输问题讲解

第二周:凸函数讲解

  • 凸集的判断
  • First-Order Convexity
  • Second-order Convexity
  • Operations Preserve Convexity
  • 二次规划问题(QP)
  • 案例:最小二乘问题
  • 项目作业:股票投资组合优化

第三周:凸优化问题

  • 常见的凸优化问题类别
  • 半定规划问题
  • 几何规划问题
  • 非凸函数的优化
  • 松弛化(Relaxation)
  • 整数规划(Integer Programming)
  • 案例:打车中的匹配问题

第四周:对偶(Duality)

  • 拉格朗日对偶函数
  • 对偶的几何意义
  • Weak and Strong Duality
  • KKT条件
  • LP, QP, SDP的对偶问题
  • 案例:经典模型的对偶推导及实现
  • 对偶的其他应用

第五周:优化技术

  • 一阶与二阶优化技术
  • Gradient Descent
  • Subgradient Method
  • Proximal Gradient Descent
  • Projected Gradient Descent
  • SGD与收敛
  • Newton’s Method
  • Quasi-Newton’s Method

第二部分 图神经网络

第六周:数学基础

  • 向量空间和图论基础
  • Inner Product, Hilbert Space
  • Eigenfunctions, Eigenvalue
  • 傅里叶变化
  • 卷积操作
  • Time Domain, Spectral Domain
  • Laplacian, Graph Laplacian

第七周:谱域的图神经网络

  • 卷积神经网络回归
  • 卷积操作的数学意义
  • Graph Convolution
  • Graph Filter
  • ChebNet
  • CayleyNet
  • GCN
  • Graph Pooling
  • 案例:基于GCN的推荐

第八周:空间域的图神经网络

  • Spatial Convolution
  • Mixture Model Network (MoNet)
  • 注意力机制
  • Graph Attention Network(GAT)
  • Edge Convolution
  • 空间域与谱域的比较
  • 项目作业:基于图神经网络的链路预测

第九周:图神经网络改进与应用

  • 拓展1: Relative Position与图神经网络
  • 拓展2:融入Edge特征:Edge GCN
  • 拓展3:图神经网络与知识图谱: Knowledge GCN
  • 拓展4:姿势识别:ST-GCN
  • 案例:基于图的文本分类
  • 案例:基于图的阅读理解

第三部分 强化学习

第十周:强化学习基础

  • Markov Decision Process
  • Bellman Equation
  • 三种方法:Value,Policy,Model-Based
  • Value-Based Approach: Q-learning
  • Policy-Based Approach: SARSA

第十一周:Multi-Armed Bandits

  • Multi-Armed bandits
  • Epsilon-Greedy
  • Upper Confidence Bound (UCB)
  • Contextual UCB
  • LinUCB & Kernel UCB
  • 案例:Bandits在推荐系统的应用案例

第十二周:路径规划

  • Monte-Carlo Tree Search
  • N-step learning
  • Approximation
  • Reward Shaping
  • 结合深度学习:Deep RL
  • 项目作业:强化学习在游戏中的应用案例

第十三周: 自然语言处理中的RL

  • Seq2seq模型的问题
  • 结合Evaluation Metric的自定义loss
  • 结合aspect的自定义loss
  • 不同RL模型与seq2seq模型的结合
  • 案例:基于RL的文本生成

第四部分 贝叶斯方法

第十四周:贝叶斯方法论简介

  • 贝叶斯定理
  • 从MLE, MAP到贝叶斯估计
  • 集成模型与贝叶斯方法比较
  • 计算上的Intractiblity
  • MCMC与变分法简介
  • 贝叶斯线性回归
  • 贝叶斯神经网络
  • 案例:基于Bayesian-LSTM的命名实体识别

第十五周:主题模型

  • 生成模型与判别模型
  • 隐变量模型
  • 贝叶斯中Prior的重要性
  • 狄利克雷分布、多项式分布
  • LDA的生成过程
  • LDA中的参数与隐变量
  • Supervised LDA
  • Dynamic LDA
  • LDA的其他变种
  • 项目作业:LDA的基础上修改并搭建无监督情感分析模型

第十六周:MCMC方法

  • Detailed Balance
  • 对于LDA的吉布斯采样
  • 对于LDA的Collapsed吉布斯采样
  • Metropolis Hasting
  • Importance Sampling
  • Rejection Sampling
  • 大规模分布式MCMC
  • 大数据与SGLD
  • 案例:基于分布式的LDA训练

第十七周:变分法(Variational Method)

  • 变分法核心思想
  • KL散度与ELBo的推导
  • Mean-Field变分法
  • EM算法
  • LDA的变分法推导
  • 大数据与SVI
  • 变分法与MCMC的比较
  • Variational Autoencoder
  • Probabilistic Programming
  • 案例:使用概率编程工具来训练贝叶斯模型

第十八周:其他前沿主题

  • 模型的可解释性
  • 解释CNN模型
  • 解释序列模型
  • Meta Learing
  • Fair Learning
  • 技术前瞻

课程其他的细节可以联系课程顾问来获取
添加课程顾问小姐姐微信
报名、课程咨询

02 部分案例和项目

运输优化问题:在运筹学以及优化领域最为经典的问题之一,类似的思想广泛应用在仓库优化,匹配等问题上。

涉及到的知识点:

  • 线性回归以及优化实现
  • Two-Stage随机线性规划一下优化实现

打车中的路径规划问题:我们几乎每天都在使用打车软件或者外卖软件。对于这些应用来讲,核心算法应用就是乘客和车辆的匹配。

涉及到的知识点:

  • Mixed Integer Linear Programming
  • 提供approximation bounds

经典机器学习模型的对偶推导及实现:通过此练习,更深入理解机器学习模型以及对偶的作用。

涉及到的知识点:

  • SVM,LP等模型
  • 对偶技术
  • KKT条件

基于图神经网络的文本分类:当使用语法分析工具处理文本之后,一段文本便可以成为一个图,接下来就可以使用图卷积神经网络来做后续的分类工作

涉及到的知识点:

  • 语法分析
  • 图神经网络

基于图神经网络的阅读理解:一般的阅读需要让机器阅读多个文章并对提出的问题给出答案。在阅读理解中抽取关键的实体和关系变得很重要,这些实体和关系可以用来构造一个图。

涉及到的知识点:

  • 命名识别,关系抽取
  • 图神经网络
  • Heterogeneous Graph

Bandits在推荐系统的应用案例:Bandits应用在顺序决策问题的应用中有易于实现、计算效率高、解决冷启动问题、数据标注相对要求不高(一般只需部分标注作为reward,如用户点击)等优点。本案例讲解bandits如何应用在新闻推荐的系统中做基于内容的推荐。

涉及到的知识点:

  • Exploration & Exploitation
  • Epsilon Greedy
  • Upper Confidential Bounder
  • LineUCB

使用概率编程工具来训练贝叶斯模型:类似于Pytorch,Tensorflow,概率编程工具提供了对贝叶斯模型的自动学习,我们以LDA等模型为例来说明这些工具的使用。

涉及到的知识点:

  • 概率编程
  • 主题模型
  • MCMC和变分法

股票投资组合优化:在投资组合优化中,我们需要根据用户的风险承受能力来设计并组合资产。在本项目中,我们试着在二次规划的框架下做一些必要的修改如加入必要的限制条件、必要的正则来控制组合的稀疏性、加入投资中的先验等信息,最后根据预先定义好的评估标准来引导模型的学习

涉及到的知识点:

  • 二次规划
  • 不同的正则使用
  • 基于限制条件的优化
  • 先验的引入

课程其他的细节可以联系课程顾问来获取
添加课程顾问小姐姐微信
报名、课程咨询

03 授课导师

李文哲:贪心科技创始人兼CEO,人工智能和知识图谱领域专家,曾任金融科技独角兽公司的首席科学家、美国亚马逊的高级工程师,先后负责过聊天机器人、量化交易、自适应教育、金融知识图谱等项目,并在AAAI、KDD、AISTATS等顶会上发表过15篇以上论文,并荣获IAAI,IPDPS的最佳论文奖,多次出席行业峰会发表演讲。分别在USC, TAMU,南开攻读博士、硕士和本科。

杨栋:香港城市大学博士, UC Merced博士后,主要从事于机器学习,图卷积,图嵌入的研究。先后在ECCV, Trans on Cybernetics, Trans on NSE, INDIN等国际顶会及期刊上发表过数篇论文。

04 直播授课,现场推导演示

区别于劣质的PPT讲解,导师全程现场推导,让你在学习中有清晰的思路,深刻的理解算法模型背后推导的每个细节。更重要的是可以清晰地看到各种模型之间的关系!帮助你打通六脉!

▲源自:LDA模型讲解

▲源自:Convex Optimization 讲解

▲源自:Convergence Analysis 讲解

05 课程安排(以前两周为例)

06 前两期学员背景

07 入学标准

1、理工科专业相关本科生、硕士生、博士生。
2、目前从事AI工作。
3、具备良好的Python编程能力。
4、具备一定机器学习基础,零基础学员不太适合。

08 报名须知

1、本课程为收费教学。
2、本期仅招收剩余名额有限。
3、品质保障!正式开课后7天内,无条件全额退款。
4、学习本课程需要具备一定的机器学习基础。

—  —

版权所有,未经授权不得以任何形式转载及使用,违者必究。