监督学习与无监督学习

监督学习与无监督学习

1 基本定义


监督学习:

   训练数据既有特征又有标签,通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签的是监督学习。包括所有的回归算法分类算法,比如线性回归、决策树、神经网络、KNN、SVM等。

  监督学习可以分成两大类:回归和分类。回归针对的是因变量为连续型的数据,分类针对的是因变量为离散型的数据。

无监督学习:

  在只有特征没有标签的训练数据集中,通过数据之间的内在联系和相似性将他们分成若干类的是无监督学习。包括所有的聚类算法,比如k-means 、PCA、 GMM等

  无监督学习包括两类:一类是基于概率密度函数估计的直接方法,它是设法找到各类别在特征空间的分布参数,再进行分类。另一类基于样本间相似性度量的间接聚类方法,其原理是设法定出不同类别的核心或初始内核,然后依据样本与核心之间的相似性度量将样本聚集成不同的类别。

2 区别


(1)监督学习方法必须要有训练集与测试样本。而无监督学习没有训练集。

(2)监督学习方法的目的是识别事物,识别的结果表现在给待识别数据加上了标签。因此训练样本集必须由带标签的样本组成。而无监督学习方法只有要分析的数据集的本身,预先没有什么标签。

(3)无监督学习方法在寻找数据集中的规律性,这种规律性并不一定要达到划分数据集的目的,也就是说不一定要“分类”。

监督学习与无监督学习

1 基本定义


监督学习:

   训练数据既有特征又有标签,通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签的是监督学习。包括所有的回归算法分类算法,比如线性回归、决策树、神经网络、KNN、SVM等。

  监督学习可以分成两大类:回归和分类。回归针对的是因变量为连续型的数据,分类针对的是因变量为离散型的数据。

无监督学习:

  在只有特征没有标签的训练数据集中,通过数据之间的内在联系和相似性将他们分成若干类的是无监督学习。包括所有的聚类算法,比如k-means 、PCA、 GMM等

  无监督学习包括两类:一类是基于概率密度函数估计的直接方法,它是设法找到各类别在特征空间的分布参数,再进行分类。另一类基于样本间相似性度量的间接聚类方法,其原理是设法定出不同类别的核心或初始内核,然后依据样本与核心之间的相似性度量将样本聚集成不同的类别。

2 区别


(1)监督学习方法必须要有训练集与测试样本。而无监督学习没有训练集。

(2)监督学习方法的目的是识别事物,识别的结果表现在给待识别数据加上了标签。因此训练样本集必须由带标签的样本组成。而无监督学习方法只有要分析的数据集的本身,预先没有什么标签。

(3)无监督学习方法在寻找数据集中的规律性,这种规律性并不一定要达到划分数据集的目的,也就是说不一定要“分类”。

监督学习与无监督学习

1 基本定义


监督学习:

   训练数据既有特征又有标签,通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签的是监督学习。包括所有的回归算法分类算法,比如线性回归、决策树、神经网络、KNN、SVM等。

  监督学习可以分成两大类:回归和分类。回归针对的是因变量为连续型的数据,分类针对的是因变量为离散型的数据。

无监督学习:

  在只有特征没有标签的训练数据集中,通过数据之间的内在联系和相似性将他们分成若干类的是无监督学习。包括所有的聚类算法,比如k-means 、PCA、 GMM等

  无监督学习包括两类:一类是基于概率密度函数估计的直接方法,它是设法找到各类别在特征空间的分布参数,再进行分类。另一类基于样本间相似性度量的间接聚类方法,其原理是设法定出不同类别的核心或初始内核,然后依据样本与核心之间的相似性度量将样本聚集成不同的类别。

2 区别


(1)监督学习方法必须要有训练集与测试样本。而无监督学习没有训练集。

(2)监督学习方法的目的是识别事物,识别的结果表现在给待识别数据加上了标签。因此训练样本集必须由带标签的样本组成。而无监督学习方法只有要分析的数据集的本身,预先没有什么标签。

(3)无监督学习方法在寻找数据集中的规律性,这种规律性并不一定要达到划分数据集的目的,也就是说不一定要“分类”。

滚动至顶部