优秀的编程知识分享平台

网站首页 > 技术文章 正文

mooc机器学习第七天-分类支持向量机svm.svc

nanyue 2024-11-24 19:41:18 技术文章 1 ℃

1.函数简介

sklearn.svm.SVC(C=1.0, kernel='rbf', degree=3, gamma='auto', coef0=0.0, shrinking=True, probability=False,Tol=0.001, cache_size200, class_weight=None, verbose=False, max_iter=-1,decision_function_shape=None,random_state=None)

参数:

1、C:C-SVC的惩罚参数C默认值是1.0,C越大,相当于惩罚松弛变量,希望松弛变量接近0,即对误分类的惩罚增大,趋向于对训练集全分对的情况,这样对训练集测试时准确率很高,但泛化能力弱。C值小,对误分类的惩罚减小,允许容错,将他们当成噪声点,泛化能力较强。

C一般可以选择为:0.0001 到10000,选择得越大,表示对错误例惩罚程度越大,可能会导致模型过拟合

2、kernel :核函数,默认是rbf,可以是'linear', 'poly', 'rbf', 'sigmoid', 'precomputed'

  0 – 线性:u'v

  1 – 多项式:(gamma*u'*v + coef0)^degree

  2 – RBF函数:exp(-gamma|u-v|^2)

  3 –sigmoid:tanh(gamma*u'*v + coef0)

3、degree :多项式poly函数的维度,默认是3,选择其他核函数时会被忽略。建议设置为2;

4、gamma :'rbf','poly'和'sigmoid'的核系数。当前默认值为'auto',它使用1 / n_features,如果gamma='scale'传递,则使用1 /(n_features * X.std())作为gamma的值。当前默认的gamma''auto'将在版本0.22中更改为'scale'。

5、 coef0 :核函数的常数项。对于'poly'和 'sigmoid'有用。

6、probability :默认False。是否启用概率估计。必须在调用fit之前启用它,并且会减慢该方法的速度。

7、shrinking :默认为true,是否采用shrinking heuristic(收缩启发式)方法

8、 tol :默认为1e-3,停止训练的误差值大小,

9、cache_size :默认为200,核函数cache缓存大小

10、 class_weight :{dict,'balanced'}。将类i的参数C设置为SVC的class_weight [i] * C. 如果没有给出,所有类都应该有一个权重。"平衡"模式使用y的值自动调整与输入数据中的类频率成反比的权重n_samples / (n_classes * np.bincount(y))

11、verbose :默认False。启用详细输出。请注意,此设置利用libsvm中的每进程运行时设置,如果启用,则可能无法在多线程上下文中正常运行。

12、max_iter :最大迭代次数。-1为无限制。

13、decision_function_shape :'ovo', 'ovr' or None, default=None3

14、random_state :默认 无。伪随机数生成器的种子在对数据进行混洗以用于概率估计时使用。如果是int,则random_state是随机数生成器使用的种子; 如果是RandomState实例,则random_state是随机数生成器; 如果没有,随机数生成器所使用的RandomState实例np.random。

主要调节的参数有:C、kernel、degree、gamma、coef0。

与核函数相对应的libsvm参数建议:

1)对于线性核函数,没有专门需要设置的参数

2)对于多项式核函数,有三个参数。-d用来设置多项式核函数的最高此项次数,也就是公式中的d,默认值是3。-g用来设置核函数中的gamma参数设置,也就是公式中的第一个r(gamma),默认值是1/k(k是类别数)。-r用来设置核函数中的coef0,也就是公式中的第二个r,默认值是0。

3)对于RBF核函数,有一个参数。-g用来设置核函数中的gamma参数设置,也就是公式中的第一个r(gamma),默认值是1/k(k是类别数)。

4)对于sigmoid核函数,两个参数g以及r:gamma一般可选1 2 3 4,coef0选0.2 0.4 0.60.8 1

属性:

support_ :支持向量索引。

support_vectors_ :支持向量。

n_support_ :每一类的支持向量数目

dual_coef_ :决策函数中支持向量的系数

coef_ :赋予特征的权重(原始问题中的系数)。这仅适用于线性内核。

intercept_ :决策函数中的常量。

2.mooc实例简介

上证指数涨跌预测

数据介绍:

网易财经上获得的上证指数的历史数据,爬取了20年的上证指数数据。

实验目的:

根据给出当前时间前150天的历史数据,预测当天上证指数的涨跌。

技术路线:sklearn.svm.SVC

实验过程:

·使用算法:SVM,

·实现过程:

1.建立工程,导入sklearn相关包

import pandas as pd
import numpy as np
from sklearn import svm
from sklearn import cross_validation

.关于一些相关包的介绍:

pandas:用来加载CSV数据的工具包

numpy:支持高级大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库。

sklearn下svm:SVM算法

sklearn下cross_validation:交叉验证


2.数据加载&&数据预处理

data=pd.read_csv('stock/000777.csv',encoding='gbk',parse_dates=[0],index_col=0)

data.sort_index(0,ascending=True,inplace=True)

dayfeature=150

featurenum=5*dayfeature

x=np.zeros((data.shape[0]-dayfeature,featurenum+1))

y=np.zeros((data.shape[0]-dayfeature))

一些参数解释:读入数据

pd:pandas包的实例参数

read_csv():详细解释(http://pandas.pydata.org/pandas-docs/stable/generated/pandas.read_csv.html)

pandas.read_csv(数据源,encoding=编码格式为gbk,parse_dates=第0列解析为日期,index_col=用作行索引的列编号)

sort_index():详细解释(http://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.sort_index.html)

DataFrame.sort_index(axis=0(按0列排),ascending=True(升序),inplace=False(排序后是否覆盖原数据))data按照时间升序排列

3.创建SVM并进行交叉验证

clf=svm.SVC(kernel='rbf')
//调用svm函数,并设置kernel参数,默认是rbf,其它:'linear' 'poly' 'sigmoid'
result=[]
for i in range(5):
  x train, x test, y_train, y_test= cross_validation.train_test_split(x,y,test_size=0.2)
  //x和y的验证集和测试集,切分80-20%的测试集
  clf.fit(x_train,y_train)
  //训练数据进行训练
  result.append(np.mean(y_test==clf.predict(x_test)))
  //将预测数据和测试集的验证数据比对
print("svm classifier accuacy:")
print(result)

for i in range(0, data. shape[0]-dayfeature):
  x[i,0:featurenum]=np.array(data[i:i+dayfeature]\
         [[u'收盘价',u'最高价',u'最低价',u'开盘价',u'成交量']]).reshape((1,featurenum))
//将数据中的“收盘价”“最高价”“开盘价”“成交量”存入×数组中
	x[i,featurenum]=data.ix[i+dayfeature][u'开盘价']
//最后一列记录当日的开盘价
for i in range(0,data.shape[0]-dayfeature):
  if data.ix[i+dayfeature][u'收盘价']>=data.ix[i+dayfeature][u'开盘价']:
  	y[i]=1
  else:
  	y[i]=0
//如果当天收盘价高于开盘价,y[i]=1代表涨,0代表跌

参数解释:

u:unicode编码

reshape:转换成1行,featurenum列

ix:索引

交叉验证

基本思想:

交叉验证法先将数据集D划分为k个大小相似的互斥子集,每个自己都尽可能保持数

据分布的一致性,即从D中通过分层采样得到。然后,每次用k-1个子集的并集作为

训练集,余下的那个子集作为测试集;这样就可获得k组训练/测试集,从而可进行k

次训练和测试,最终返回的是这个k个测试结果的均值。通常把交叉验证法称为“k者

交叉验证”,k最常用的取值是10,此时称为10折交叉验证。

3.代码

import  numpy as np
import  pandas as pd
from sklearn import  svm
from sklearn import  cross_validation
 
data=pd.read_csv('。/stock/000777.csv',encoding='gbk',
                 parse_dates=[0],index_col=0)#读取数据,一点预处理
# print(data.head())
data.sort_index(0,ascending=True,inplace=True)
# print(data.head())
dayfeature=150
featurenum=5*dayfeature
# print(data.shape[0])
x=np.zeros((data.shape[0]-dayfeature-dayfeature,featurenum+1))
# print(x.shape)
y=np.zeros((data.shape[0]-dayfeature-dayfeature))
 
 
# print(data)
#利用range遍历花式索引取值判断赋值
for i in range(0,x.shape[0]):
    x[i, 0:featurenum] = np.array(data[i:i + dayfeature] \
[[u'收盘价', u'最高价', u'最低价', u'开盘价', u'成交量']]).reshape((1, featurenum))
    x[i, featurenum] = data.ix[i + dayfeature][u'开盘价']
 
for i in range(x.shape[0]):
    if data.ix[i + dayfeature][u'收盘价'] >= data.ix[i + dayfeature][u'开盘价']:
        y[i] = 1
    else:
        y[i] = 0
 
#调用算法,训练
clf=svm.SVC(kernel='rbf')
result=[]
for i in range(5):
      x_train,x_test,y_train,y_test=cross_validation.train_test_split(x,y,test_size=0.2)
      clf.fit(x_train,y_train)
      result.append(np.mean(y_test==clf.predict(x_test)))
print("svm classifier accuacy:")
print(result)
最近发表
标签列表