形而上的机器学习

jopen 10年前

形而上的机器学习

Part 1: 机器学习的前世今生.

既然说机器学习,就从什么机器学习开始,相对而言,机器学习是一个比较泛的概念

初看的话,会觉得机器学习和人工智能,数据挖掘讲的东西很像,实际他们之间的关系可以概括为:

  • 机器学习是人工智能的一个子方向
  • 机器学习是数据挖掘的一种实现方式

形而上的机器学习


举个简单的例子,给一些苹果和香蕉,人会通过特征的判断做区分,并且记忆这些特征,下次来了一个新的苹果或者香蕉的时候,就可以判断是香蕉还是苹果了

作为任意一个算法或者说用程序执行的数学问题,总需要一些输入,一些输出

对于机器学习而言,输入就是特征所构成向量的向量,或者说是一个矩阵

如果只有一个特征,输入就是一个向量了,当然,向量是一个弱化的矩阵概念,统一称作矩阵

• 目前机器学习的核心技术是基于矩阵的优化技术

  • 输入:矩阵 – 待学习的信息
  • 输出:模型 – 总结出的规则

因此,目前主流的机器学习技术就可以形式化为

输入:特征矩阵 X、标注向量 y

  • X 是特征矩阵,不包括“样本名称”和“样本 标注”
  • y 是标注向量,即“样本标注”那列

输出:模型向量 w

期望:X·w 尽可能接近 y

多种优化算法可以解 w,区别在于如何定义 “尽可能接近”

举个例子来说,要计算广告的CTR

形而上的机器学习

这个例子中

目标是要根据已知的auc特征,猜测这个目标广告是否会被点击

例子中特征只有两个,query关键词和“是否飘红”,判断结果是是否点击

好了,现在问题和输入输出都有了,具体解决这个问题,就可以选用相关的算法了

前面定义里面有这么一个隐含的关键点:X w 尽可能接近 y

如何定义这个“接近”,思路不同,算法就不同

比如对于LR (Logistic Regression)和SVM(Support Vector Machine)是不同的,作为样例,可以按照下图理解

形而上的机器学习 形而上的机器学习

数学形式表示,就是

形而上的机器学习

具体算法细节不是这里讨论的重点,在这两个算法中,“接近”的定义不同

学术的讲,就是“优化目标不同”

无论是否相同,我们都至少可以选一个优化目标了

有了优化目标,下面要做的就是如何求解这个优化目标了

一般现在用的思路主要是

L-BFGS,CDN,SGD这一些

把上面这一些要素放在一起,就有了完整的一个机器学习问题

形而上的机器学习

Part 2: 如果你要用机器学习的方法去解决问题

就需要注意三个方面的优化了:

算法,数据,特征

我们下面分开来说

算法,就是优化目标 + 优化算法

从优化目标的角度,工业界往往没有那个资源或者实力去研究新的算法,大多是在使用已有算法或者在已有算法的基础上做扩展

从优化算法的角度,主要是三点:

  • 更小的计算代价
  • 更快的收敛
  • 更好的并行

这三点也比较好理解,对于一个工程问题,计算代价小,机器就可以做别的事情,更快的收敛,就可以更好的把结果投入使用,更好的并行,就可以用现有的大数据框架解决问题

训练数据就是尽可能和实际同分布的数据 + 尽可能充分的数据

机器学习算法中,由于期望的往往是总的误差最小,所以很可能讲数据量小的类目判别错误

如果样本数据和实际数据分布差异大的话,对于实际的算法效果一般都不好

充分的数据,这个就好解释了,数据越充分,训练就越充分,就好比考试前做的练习越多,一般效果越好

特征就是尽可能包含足够多的需要识别对象的信息

一个简单的例子,如果只有一个特征,对于水果的判断往往偏颇,就会造成下面的结果

形而上的机器学习

随着特征的增多,训练就会准确

形而上的机器学习
往往对于一个工程问题来说,特征是决定最多的方面

一个算法方面的优化,可能只是优化了2~3%的效果,但是特征可能就是50~60%了,一个工程项目七八成的精力往往都是画在特征选取上的,比如百度CTR预测,特征数据目前就是100亿级别的。

最后来说一点关于deep learning 的东西

Deep learning和目前的机器学习算法(Shallow Learning)最大的区别在于特征层数

形而上的机器学习
目前的机器学习算法主要是一层的,就是从特征直接推断是结果;

而Deep Learning和人类的处理问题的结果更接近,是由特征推断出一些中间层的结果,进而推断出最终结果的;

比如视觉是由一些点,进而判断出一些边,进而判断出一些形状,然后才是整体的物体的。

形而上的机器学习

之前大量使用Shallow learning 主要是因为 Shallow Learning有很好的数学特征

  • 解空间是凸函数
  • 凸函数有大量的求解方法

凸函数优化可以参考

**Convex Optimization
**http://book.douban.com/subject/1888111/
**http://www.stanford.edu/~boyd/cvxbook/

而Deep Learning则容易找到局部最优解,而非全局最优解

形而上的机器学习

Deep Learning解法可以参考

G. Hinton et al., A Fast Learning Algorithm for Deep Belief Nets. Neural Computation, 2006.

也可以看Andrew NG最近的课程

这里有最新的中文翻译

http://deeplearning.stanford.edu/wiki/index.php/UFLDL教程

本文整理自@戴文渊 机器学习简介 讲座

End.



形而上的机器学习

来自36大数据(36dsj.com)