sklearn中文文档
主页
安装sklearn
快速开始
sklearn教程
教程目录
scikit-learn 中的设置以及预估对象
监督学习-从高维观察预测输出变量
模型选择-选择估计量及其canshu
无监督学习-寻求数据表示
把它们放在一起
寻求帮助
处理文本数据
选择正确的评估器
外部资源,视频和谈话
1.监督学习
1.0-第一章详细目录
1.1-广义线性模型
1.2-线性和二次判别分析
1.3-内核岭回归
1.4-支持向量机
1.5-随机梯度下降
1.6-最近邻
1.7-高斯过程
1.8-交叉分解
1.9-朴素贝叶斯
1.10-决策树
1.11-集成方法
1.12-多类和多标签算法
1.13-特征选择
1.14-半监督学习
1.15-等式回归
1.16-概率校准
1.17-神经网络模型(有监督)
2.无监督学习
2.0-第二章详细目录
2.1-高斯混合模型
2.2-流形学习
2.3-聚类
2.4-双聚类
2.5-矩阵分解
2.6-协方差估计
2.7-新奇点和离群点检测
2.8-密度估计
2.9-神经网络(无监督)
3.模型选择和评估
3.0-第三章详细目录
3.1-交叉验证
3.2-调整估计器的超参数
3.3-模型评估
3.4-模型持久化
3.5-学习与验证曲线
4.检验
4.0-第四章目录
4.1-部分依赖图
5.数据集转换
5.0-第五章详细目录
5.1-Pipeline(管道)和FeatureUnion(特征联合)
5.2-特征提取
5.3-预处理数据
5.4-缺失值插补
5.5-无监督降维
5.6-随机投影
5.7-内核近似
5.8-成对的矩阵、类别和核函数
5.9 标签转换
6.数据集以及数据加载工具
7.并行以及分布式计算
常见问题
时光轴
sklearn中文文档
Docs
»
2.无监督学习 »
2.0-第二章详细目录
2. 无监督学习
2.1. 高斯混合模型
2.1.1. 高斯混合
2.1.2. 变分贝叶斯高斯混合
2.2. 流形学习
2.2.1. 介绍
2.2.2. Isomap
2.2.3. 局部线性嵌入
2.2.4. 改进型局部线性嵌入(MLLE)
2.2.5. 黑塞特征映射(HE)
2.2.6. 谱嵌入
2.2.7. 局部切空间对齐(LTSA)
2.2.8. 多维尺度分析(MDS)
2.2.9. t 分布随机邻域嵌入(t-SNE)
2.2.10. 实用技巧
2.3. 聚类
2.3.1. 聚类方法概述
2.3.2. K-means
2.3.3. Affinity Propagation
2.3.4. Mean Shift
2.3.5. Spectral clustering
2.3.6. 层次聚类
2.3.7. DBSCAN
2.3.8. OPTICS
2.3.9. Birch
2.3.10. 聚类性能度量
2.4. 双聚类
2.4.1. Spectral Co-Clustering
2.4.2. Spectral Biclustering
2.4.3. Biclustering 评价
2.5. 分解成分中的信号(矩阵分解问题)
2.5.1. 主成分分析(PCA)
2.5.2. 截断奇异值分解和隐语义分析
2.5.3. 词典学习
2.5.4. 因子分析
2.5.5. 独立成分分析(ICA)
2.5.6. 非负矩阵分解(NMF 或 NNMF)
2.5.7. 隐 Dirichlet 分配(LDA)
2.6. 协方差估计
2.6.1. 经验协方差
2.6.2. 收缩协方差
2.6.3. 稀疏逆协方差
2.6.4. 鲁棒协方差估计
2.7. 新奇点和离群点检测
2.7.1. 离群点检测方法一览
2.7.2. Novelty Detection(新奇点检测)
2.7.3. Outlier Detection(离群点检测)
2.7.4. 使用LOF进行新奇点检测
2.8. 密度估计
2.8.1. 密度估计: 直方图
2.8.2. 核密度估计
2.9. 神经网络模型(无监督)
2.9.1. 限制波尔兹曼机
« Previous
Next »