(1)k-近邻算法是分类数据最简单最有效的方法。
(2)在将数据输入到分类器之前,必须将待处理数据的格式改变为分类器可以接受的格式。
(3)所有的推荐模型都可以使用这个算法,只要将结果量化就行了,主要是要考虑权重的设计。
# -*- coding:utf-8 -*-
#数字型聚类分析
from numpy import *
import operator
def createDataSet():
group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
labels = ['A','A','B','B']
return group,labels
group,labels = createDataSet() #这里的group不能直接用,需要这样子返回参数
def classify0(inX,dataSet,labels,k):
dataSetSize = dataSet.shape[0] #shape[0]就是读取矩阵第一维度的长度
diffMat = tile(inX,(dataSetSize,1)) - dataSet
#>>> tile(1,2) >>>array([1, 1])
#>>> tile((1,2,3),3) >>>array([1, 2, 3, 1, 2, 3, 1, 2, 3])
sqDiffMat = diffMat**2
sqDistances = sqDiffMat.sum(axis=1) #我们平时用的sum应该是默认的axis=0 就是普通的相加,而当加入axis=1以后就是将一个矩阵的每一行向量相加
distances = sqDistances**0.5
sortedDistIndicies = distances.argsort() #排序
classCount={} #classCount={} 这是一个dict,用于存储不同标签出现的次数;
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
classCount[voteIlabel] = classCount.get(voteIlabel,0)+1
sortedClassCount = sorted(classCount.iteritems(),
key=operator.itemgetter(1),reverse=True)
return sortedClassCount[0][0]
classify0([0,0],group,labels,3)