更新 机器学习.md

This commit is contained in:
admin 2025-06-10 06:43:56 +00:00
parent 297f2ee32b
commit d15b61d2ef

View File

@ -105,7 +105,7 @@
- PCA异常值检验 - PCA异常值检验
- 方差得分:考察某异常点往各个主成分上投影的(加权除以$\lambda_i$)平方和。这里$\lambda_i$使得各个特征向量之间有可比性。也可以选择前r个或者在后r个特征上的得分。 - 方差得分:考察某异常点往各个主成分上投影的(加权除以$\lambda_i$)平方和。这里$\lambda_i$使得各个特征向量之间有可比性。也可以选择前r个或者在后r个特征上的得分。
- 重构误差:=前k个特征向量的重构误差的加权平均 - 重构误差:=前k个特征向量的重构误差的加权平均
- 奇异值分解 (SVD)$A_{m\times n}=U_{m\times m}\Sigma_{m\times n} V_{n\times n}^T$这里U和V正交矩阵$\Sigma=diag(1,...,1,0,...)$ - 奇异值分解 (SVD) $A_{m\times n}=U_{m\times m}\Sigma_{m\times n} V_{n\times n}^T$ 这里U和V正交矩阵$\Sigma=diag(1,...,1,0,...)$
- 紧奇异值分解 (compact singular value decomposition)等号;截断奇异值分解 (truncated singular value decomposition)约等于 - 紧奇异值分解 (compact singular value decomposition)等号;截断奇异值分解 (truncated singular value decomposition)约等于
- 线性判别分析(Linear Discriminant Analysis, LDA)是有监督的降维方法。思想是将每个类的样本点投影到低维超平面上使得类内方差最小,类外方差最大即使得降维后类间的分隔尽可能的大 - 线性判别分析(Linear Discriminant Analysis, LDA)是有监督的降维方法。思想是将每个类的样本点投影到低维超平面上使得类内方差最小,类外方差最大即使得降维后类间的分隔尽可能的大
- $S_w$类内散度矩阵 (within-class scatter matrix)(也就是样本协方差矩阵m × m):类内样本协方差矩阵,再对类求和 - $S_w$类内散度矩阵 (within-class scatter matrix)(也就是样本协方差矩阵m × m):类内样本协方差矩阵,再对类求和