初试无监督学习 - K均值聚类算法
文章目录
- 1. K均值聚类算法概述
- 2. k均值聚类算法演示
- 2.1 准备工作
- 2.2 生成聚类用的样本数据集
- 2.3 初始化KMeans模型对象,并指定类别数量
- 2.4 用样本数据训练模型
- 2.5 用训练好的模型生成预测结果
- 2.6 输出预测结果
- 2.7 可视化预测结果
- 3. 实战小结
1. K均值聚类算法概述
- K均值聚类算法是一种迭代的、基于中心的聚类方法,将数据点划分为K个簇。算法通过随机选择初始中心点,然后迭代地分配数据点到最近的簇中心,并更新簇中心为簇内所有点的均值,直到收敛或达到最大迭代次数。它简单、高效,适用于大规模数据集。
2. k均值聚类算法演示
2.1 准备工作
下面的代码导入数据处理和绘图库,设置绘图样式为seaborn-v0_8
,格式化NumPy数组输出。
下面两行代码是Python中使用scikit-learn
库进行聚类分析的准备工作:
-
from sklearn.cluster import KMeans
:这行代码从sklearn.cluster
模块中导入KMeans
类。KMeans
是一种常用的聚类算法,用于将数据点分组成K个簇,使得簇内的点尽可能相似,簇间的点尽可能不同。 -
from sklearn.datasets import make_blobs
:这行代码从sklearn.datasets
模块中导入make_blobs
函数。make_blobs
用于生成人造的聚类数据集,这些数据集由若干个“blobs”组成,每个“blob”是一个高密度的数据点集合,它们在特征空间中相对独立,适合用来测试和展示聚类技术的效果。
通常,这两行代码会用在数据分析或机器学习项目的开始阶段,为聚类任务做准备。
-
什么是blobs?在机器学习和数据科学领域,“blobs” 这个词通常用来描述一种特定类型的数据集,这种数据集由聚类算法生成,用于测试和展示聚类技术的效果。“Blobs” 数据集包含若干个 “blob”,每个 “blob” 是一个高密度的数据点集合,它们在特征空间中相对独立。
-
高斯分布:每个 “blob” 通常由高斯(正态)分布生成,这意味着数据点围绕中心点呈钟形分布。
-
分离性:不同的 “blobs” 之间相对分离,这使得它们容易被聚类算法识别和分开。
-
维度:“Blobs” 数据集可以是二维的,用于可视化,也可以是更高维度的,用于更复杂的分析。
2.2 生成聚类用的样本数据集
2.3 初始化KMeans模型对象,并指定类别数量
2.4 用样本数据训练模型
2.5 用训练好的模型生成预测结果
2.6 输出预测结果
2.7 可视化预测结果
一旦训练了如 KMeans之类的算法,它就可以预测新样本 ( 之前未见过的样本 ) 所属的类别。假设我们在描述银行潜在债务人和实际债务人的特征数据集上训练这种算法,它可以通过生成两个类别来了解潜在债务人的信誉度,将新的潜在债务人归类为两个类别之一:“信誉良好”与“信誉不佳”。
3. 实战小结
通过本次实战,我们深入理解并应用了K均值聚类算法,这是一种广泛应用于数据科学领域的无监督学习方法。我们首先导入了必要的库,包括数据处理的NumPy、数据分析的Pandas以及数据可视化的Matplotlib,并设置了绘图样式以提升图表美观度。接着,我们利用make_blobs
函数生成了模拟数据,为聚类分析提供了基础数据集。
在初始化KMeans模型时,我们指定了类别数量,这在实际应用中需要根据数据特性和业务需求来确定。通过训练模型并生成预测结果,我们成功地将数据点划分为不同的簇。最后,通过可视化预测结果,我们直观地展示了聚类效果,进一步验证了模型的准确性。
此外,我们还探讨了"blobs"的概念,即由聚类算法生成的高密度数据点集合,它们在特征空间中的相对独立性为聚类算法提供了理想的测试环境。通过本次实战,我们不仅掌握了K均值聚类算法的实现流程,还学会了如何通过数据可视化来评估聚类效果,为解决实际问题打下了坚实基础。
原文地址:https://blog.csdn.net/howard2005/article/details/143951811
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!