从一个最基本的算法示例来入门机器学习
第一个分类算法 — k-近邻算法(简单地说,k近邻算法采用测量不同特征值之间的距离方法进行分类。)
前言:
- 工具, 我用的 Pycharm ,Python V3.X和V2.x 随意切换,建议初学者还是下个编辑工具方便些. Pycharm环境配置
- 本篇基于 Python 2.X 环境,Mac OS 系统
- 模块导入 numpy,operator,matplotlib,不知道从哪导入?
- 这里用的比较的多的NumPy数组,建议先简单了解下,NumPy使用手册
- 建议第一遍先过一下算法大概的思想,之后再细看代码
- 源码在这里
需求分析,使用k-近邻算法改进约会网站的配对效果
海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的 人选,但她没有从中找到喜欢的人。经过一番总结,她发现曾交往过三种类型的人:
- 不喜欢的人
- 魅力一般的人
- 极具魅力的人
这次的分类软件可以更好地帮助她将匹配对象划分到确切的分类中
k-近邻算法流程
- 收集数据:提供文本文件
- 准备数据: 使用 Python 解析文本文件
- 分析数据:使用 Matplotlib 画二维扩散图
- 训练算法:此步驟不适用于卜近邻算法
- 使用海伦提供的部分数据作为测试样本,测试样本和非测试样本的区别在于:测试样本是已经完成分类的数据,如果预测分类与实际类别不同,则标记为一个错误
- 使用算法:产生简单的命令行程序,然后海伦可以输入一些特征数据以判断对方是否
为自己喜欢的类型
准备数据:从文本文件中解析数据
本次数据来源海伦的约会数据,放在文本文件 datingTestSet2.txt 中,每 个样本数据占据一行,总共有1000行。样本主要包含以下3种特征:
- 每年获得的飞行常客里程数
- 玩视频游戏所耗时间百分比
- 每周消费的冰淇淋公升数
在将上述特征数据输人到分类器之前,必须将待处理数据的格式改变为分类器可以接受的格式 。在kNN.py中创建名为file2matrix的函数,以此来处理输人格式问题。该函数的输人为文件名字符串,输出为训练样本矩阵和类标签向量。
|
|
首先我们需要知道文本文件包含多 少行。打开文件,得到文件的行数。然后创建以零填充的矩阵NumPy(实际上,NumPy是一 个二维数组,这里暂时不用考虑其用途)。为了简化处理,我们将该矩阵的另一维度设置为固定 值3 , 你可以按照自己的实际需求增加相应的代码以适应变化的输人值。循环处理文件中的每行 数据 , 首先使用函数line.strip()截取掉所有的回车字符,然后使用tab字符\t将上一步得 到的整行数据分割成一个元素列表。接着,我们选取前3个元素,将它们存储到特征矩阵中。Python 语言可以使用索引值-1表示列表中的最后一列元素,利用这种负索引,我们可以很方便地将列表 的最后一列存储到向量classLabelVector中。需要注意的是,我们必须明确地通知解释器,告 诉它列表中存储的元素值为整型,否则Python语言会将这些元素当作字符串处理。以前我们必须自己处理这些变量值类型问题.
测试一下,读出来的数据是这样
散点图,观察数据的样本分布
只是为了能比较直观的看到样本之间的模式,不在算法内
一般来说,图形化的方式能更直观地展示数据。接下来下面用 Matplotlib 来图形化展示数据内容,看一下数据之间的模式,测试代码。
|
|
这是玩视频游戏所耗时间百分比(X)与每周消费的冰激凌公升数的散点图(Y),可以看到三个样本的分布情况,不过区分度不是很清晰
接下来取矩阵列的0和1列
|
|
这是每年飞行常客里程数(X)与玩视频游戏所占百分比的约会数据散点图(Y)
清晰地标识了三个不同的样本分类区域,具有不同爱好的人其类别区域也不同。
准备数据:归一化数值
计算俩点间的距离公式
很容易发现,上面方程中数字差值最大的属性对计算结果的影响最大,也就是说,每年 获取的飞行常客里程数对于计算结果的影响将远远大于表2-3中其他两个特征— 玩视频游戏的 和每周消费冰洪淋公升数— 的影响。而产生这种现象的唯一原因,仅仅是因为飞行常客里程数 远大于其他特征值。但海伦认为这三种特征是同等重要的,因此作为三个等权重的特征之一,飞 行常客里程数并不应该如此严重地影响到计算结果。
在处理这种不同取值范围的特征值时,我们通常采用的方法是将数值归一化,如将取值范围 处理为0到1或者-1到1之间。下面的公式可以将任意取值范围的特征值转化为0到1区间内的值:
|
|
其中min和max分别是数据集中的最小特征值和最大特征值。虽然改变数值取值范围增加了 分类器的复杂度,但为了得到准确结果,必须这样做。定义一个函数,将数字特征值转化为0到1的区间。
为了归一化特征值,我们必须使用当前值减去最小值,然后除以取值范围. 需要注意的是,特征 值矩阵有1000 3个值,而minVals和range的值都为1 3。为了解决这个冋题,我们使用NumPY函数将变量内容复制成输入矩阵同样大小的矩阵,注意这是具体特征值相除 ,而 对于某些数值处理软件包,/可能意味着矩阵除法,但在NumPy库中,矩阵除法需要使用函数 linalg .solve (matA,matB) 。
|
|
这里可以打印出归一之后的结果,测试代码
|
|
输出
测试算法:作为完整程序验证分类器
机器学习算法一个很重要的工作就是评估算法的正确率,通常我们只提供已有数据的90%作为训练样本来训练分类 器 ,而使用其余的10%数据去测试分类器,检测分类器的正确率,这里随意选择10%数据而不影响其随机性。
使用错误率来检测分类器的性能。对于分类器来说,错误率就是分类 器给出错误结果的次数除以测试数据的总数,完美分类器的错误率为0,而错误率为1.0的分类器 不会给出任何正确的分类结果。代码里我们定义一个计数器变量,每次分类器错误地分类数据, 计数器就加1, 程序执行完成之后计数器的结果除以数据点总数即是错误率
|
|
classify0分类算法流程,对未知类别属性的数据集中的每个点依次执行以下操作:
(1)计算已知类别数据集中的点与当前点之间的距离;
(2)按照距离递增次序排序;
(3)选取与当前点距离最小k几个点;
(4)确定前k个点所在类别的出现频率;
(5)返回前k个点出现频率最高的类别作为当前点的预测分类。
|
|
从文件中读取数据并将其转换为归一化特征值。接着计算测试向量的数量,此步决定了 normMat向量中哪些数据用于测试,哪些数据用于分类器的训练样本;然后将这两部分数据输人到原始kNN分类器函数classifyO。最后,函数计算错误率并输出结果
调用测试函数 datingClassTest(),输出
可以看到,约会数据集的错误率5%,还算是一个可以接受的结果,可以改变函数 datingClassTest内变量 hoRatio 和变量 k 的值,检测错误率是否随着变量值的变化而增加。依 赖于分类算法、数据集和程序设置,分类器的输出结果可能有很大的不同
这个例子表明我们可以正确地预测分类,错误率是5%。海伦完全可以输人未知对象的 属性信息’由分类软件来帮助她判定某一对象的可交往程度:讨厌、一般喜欢、非常喜欢。
使用算法:构建完整可用系统
现在可以做出一个小程序,通过该程序海伦会在约会网站上找到某个人并输入他的信息。 程序会给出她对对方喜欢程度的预测值
|
|
测试下,运行函数,依次输入
|
|
然后可以得到 你对他的喜欢程度 非常喜欢 的结论
到此为止,算是初步摸到了机器学习的门槛,后续会有包括决策树,朴素贝叶斯等进阶算法的学习总结篇,共同进步.