Press "Enter" to skip to content

机器学习入门实战——基于knn的airbnb房租预测

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

 

数据读取

 

import pandas as pd
features=['accommodates','bathrooms','bedrooms','beds','price','minimum_nights','maximum_nights','number_of_reviews']
dc_listings=pd.read_csv('listings.csv')
dc_listings=dc_listings[features]
print(dc_listings.shape)
dc_listings.head()

 

运行结果:

 

 

K:候选对象个数,近邻数(如找3个和自己最近的样本)

先使用可容纳旅客的数量(accommodates)做一个简单计算,统计与可容纳3个旅客相减的情况(当前要估计价格的可容纳旅客数为3个)

import numpy as np
our_acc_value=3#房间数为3个
dc_listings['distance']=np.abs(dc_listings.accommodates-our_acc_value)#为dc_listings新增distance列,用于保存当前房间数与3的差值
dc_listings.distance.value_counts().sort_index()#统计各差值的情况

 

输出:

 

0.0      3370
1.0     17967
1.5         2
2.0      3865
3.0      1250
4.0       221
5.0       334
6.0        58
7.0       125
8.0        15
9.0        44
10.0        5
11.0       14
12.0        5
13.0       73
Name: distance, dtype: int64
原始数据统计过程中可能会存在一些规律,一般需要进行洗牌操作,打乱原有秩序(使用sample函数)

 

dc_listings=dc_listings.sample(frac=1,random_state=0)#洗牌 frac:抽取行的比例,1为100%  random_state:0表示不得取重复数据 1表示可以取重复数据
dc_listings=dc_listings.sort_values('distance')#统计差值(房间数-3)的情况 将dc_listings按照distance列排序 将和房间数3最近的放在最前面
dc_listings.price.head()#取前5条的价格 由于数据时乱的,所以id和price均无规律

 

输出结果:

 

2732     $129.00 
14798    $249.00 
27309    $170.00 
20977    $169.00 
11178    $100.00 
Name: price, dtype: object

 

对价格进行类型转换,去掉$符号,转换成float,然后对前五个价格取均值,用前5个的均值来预测当前房价

 

dc_listings['price']=dc_listings.price.str.replace("\$|,",'').astype(float)
mean_price=dc_listings.price.iloc[:5].mean()
mean_price

 

输出:163.4

 

拿75%的数据作为训练集,25%的数据作为测试集来进行模型的评估,训练集和测试集不可重复。

 

dc_listings.drop('distance',axis=1)#删除distance列
train_df=dc_listings.copy().iloc[:20544]#27392*0.75行为训练集
test_df=dc_listings.copy().iloc[20544:]#剩下的作为测试集(27392*0.25)

 

基于单变量预测价格

 

#new_listing_value:当前样本的feature_clolumn(如accomodates)列属性取值
#feture_column:计算房租使用的单属性
def predict_price(new_listing_value,feature_column):
    temp_df=train_df#使用训练集来预测测试集房租结果
    dc_listings[feature_column]=train_df[feature_column].astype(float)#统一将格式转换成float否则会报错
    temp_df['distance']=np.abs(train_df[feature_column]-new_listing_value)
    temp_df=temp_df.sort_values('distance')
    knn_5=temp_df.price.iloc[:5]
    predict_price=knn_5.mean()
    return(predict_price)

 

对测试集的每一条记录使用accomodates属性预测其房租价格

 

#new_listing_value的值即为accommodates的取值
test_df['predicted_price']=test_df.accommodates.apply(predict_price,feature_column='accommodates')
test_df.predicted_price.head()

 

输出:

 

14122    134.0
23556    418.0
16317    134.0
26230    134.0
19769    134.0
Name: predicted_price, dtype: float64

 

root mean square error(RMSE)均方根误差

 

得到每个样本的预测值后计算均方根误差用于评估模型(值越小模型越好)

 

 

test_df['squared_error']=(test_df['predicted_price']-test_df['price'])**(2)
mse=test_df['squared_error'].mean()
rmse=mse**(1/2)
rmse

 

输出结果:

 

348.689169172284

 

试试不同的变量(属性)

 

for feature in ['accommodates','bedrooms','bathrooms','number_of_reviews']:
    test_df['predicted_price']=test_df[feature].apply(predict_price,feature_column=feature)
    test_df['squared_error']=(test_df['predicted_price']-test_df['price'])**(2)
    mse=test_df['squared_error'].mean()
    rmse=mse**(1/2)
    print("RMSE for the {} column:{}".format(feature,rmse))

 

输出:

 

RMSE for the accommodates column:348.689169172284
RMSE for the bedrooms column:344.64855009943
RMSE for the bathrooms column:361.1230782594195
RMSE for the number_of_reviews column:383.4946020709275
注:由于每个测试集中的样本都要与训练集中样本一一比对,所以上述程序运行时间较长,需要耐心等待……

 

标准化

 

同时使用多个属性——如房间数(个位数)和房间面积(几十甚至上百)进行计算的时候,由于变量取值范围的不同(取值范围大的影响较大)会导致对计算结果的不良影响(如计算欧式距离时,房间面积差值平方计算结果通常较大,而房间数差值平方较小),而各个属性是独立的即它们是同等重要的,所以需要对数据进行标准化,如采用 z-score标准化
或 归一化
等手段进行预处理

 

z-score 标准化(Z-score normalization)

 

要求数据总体均值μ=0 标准差σ=1

 

转换公式如下:

其中

μ为原始数据均值,

σ为原始数据标准差,经过处理后的数据均值为0,标准差为1。 x-

μ是为了让数据以0为中心分布,除以标准差

σ是让所有列的取值范围相近(某一列取值范围小,标准差也相对较小,除以标准差后值会变大,反之,某一列取值范围大,标准差也较大,除以标准差后结果就会变小,这样就达到了使所有列取值范围相近的目的)。(分子和分母都是计算和均值的差值,分子是个体差值,分母是平均差值——)比如让房间面积和房屋个数的取值范围相同。

 

标准差(又叫均方差,标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。)计算公式

 

 

归一化(Min-Max scaling或normalization,也称为0-1归一化)

 

转换公式如下:

 

 

归一化将数字取值范围转换为0-1之间
经过上述处理后,只会改变原始数据的取值范围,而不会改变其分布规则(所有的数据处理都必须遵循的原则)。标准化会减小数据的取值范围,并使数据以0为中心分布。归一化使数据都分布在0-1之间。下面使用sklearn的preprocessing库进行预处理

 

import pandas as pd
from sklearn.preprocessing import StandardScaler#从sklearn导入标准化处理库
features=['accommodates','bathrooms','bedrooms','beds','price','minimum_nights','maximum_nights','number_of_reviews']
dc_listings=pd.read_csv('listings.csv')
dc_listings=dc_listings[features]
dc_listings['price']=dc_listings.price.str.replace("\$|,",'').astype(float)
dc_listings=dc_listings.dropna()#去除空数据
dc_listings[features]=StandardScaler().fit_transform(dc_listings[features])#数据标准化
normalized_listings=dc_listings
print(dc_listings.shape)
normalized_listings.head()

 

输出结果:

 

(26728, 8)

#获得标准化后的测试集和训练集
norm_train_df=normalized_listings.copy().iloc[0:20544]
norm_test_df=normalized_listings.copy().iloc[20544:]

 

使用scipy(一种专门用于统计学的工具库)中的工具计算欧式距离

 

from scipy.spatial import distance
first_listing=normalized_listings.iloc[0][['accommodates','bathrooms']]
sixth_listing=normalized_listings.iloc[5][['accommodates','bathrooms']]
first_sixth_distance=distance.euclidean(first_listing,sixth_listing)#计算第一个样本点和第六个样本点之间的欧式距离
first_sixth_distance

 

输出:

 

2.275986934945609

 

多变量KNN模型

 

def predict_price_multivariate(new_listing_value,feature_columns):
    temp_df=norm_train_df
    temp_df['distance']=distance.cdist(temp_df[feature_columns],[new_listing_value[feature_columns]])
    #cdist用于计算训练集到测试集的向量的距离,函数每次接收一个测试集向量
    temp_df=temp_df.sort_values('distance')
    knn_5=temp_df.price.iloc[:5]
    predicted_price=knn_5.mean()
    return(predicted_price)
cols=['accommodates','bedrooms']
#axis=1表示按行计算,针对测试集的每个向量均调用函数一次
norm_test_df['predicted_price']=norm_test_df[cols].apply(predict_price_multivariate,feature_columns=cols,axis=1)
norm_test_df['squared_error']=(norm_test_df['predicted_price']-norm_test_df['price'])**[2]
mse=norm_test_df['squared_error'].mean()
rmse=mse**(1/2)
print(rmse)

 

输出:

 

1.2069982434803874

 

使用SKlearn来实现KNN

 

from sklearn.neighbors import KNeighborsRegressor
cols=['accommodates','bedrooms']
knn=KNeighborsRegressor(n_neighbors=100)#实例化,参数默认值是5(默认使用5个最近邻)该参数并不是越大越好(取500比取100的时候rmse反而增加了)
knn.fit(norm_train_df[cols],norm_train_df['price'])#使用训练集建立模型,确定X和Y
two_features_predictions=knn.predict(norm_test_df[cols])#对测试集的Y(价格)进行预测

 

使用SKlearn计算RMSE

 

from sklearn.metrics import mean_squared_error
two_features_mse=mean_squared_error(norm_test_df['price'],two_features_predictions)
two_features_rmse=two_features_mse**(1/2)
print(two_features_rmse)

 

输出:

 

0.9981501570648538
注:使用SKlearn实现KNN,感觉到速度比自己写的要快许多
加入更多的特征

 

cols=['accommodates','bedrooms','bathrooms','beds','minimum_nights','maximum_nights','number_of_reviews']
knn=KNeighborsRegressor(n_neighbors=100)
knn.fit(norm_train_df[cols],norm_train_df['price'])
seven_features_predictions=knn.predict(norm_test_df[cols])
seven_features_mse=mean_squared_error(norm_test_df['price'],seven_features_predictions)
seven_features_rmse=seven_features_mse**(1/2)
print(seven_features_rmse

 

输出:

 

0.9704297561523479
可以看到,当特征值增加到7个的时候,误差(rmse)变小了

 

总结

 

由于KNN的计算方式,其一般只可用于数据规模较小的情况下。另外,KNN也可以用于分类任务,只不过这时候样本的label是类别而不是数值。同样,也可以跟每个样本进行对比,取前n个最近邻,看大多数属于哪个类别,则认为当前样本属于哪个类别。

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注