在python中使用scikit-learn实现数据标准化和归一化,1. 标准化通过standardscaler将数据转换为均值为0、标准差为1的分布,适用于对异常值不敏感、分布不确定或基于梯度下降的模型;2. 归一化通过minmaxscaler将数据缩放到[0,1]区间,适用于需明确范围或无显著异常值的场景;3. 非数值型数据需先进行独热编码或标签编码后再缩放;4. 缺失值需先填充或删除,确保数据完整后再进行标准化或归一化,整体流程为处理缺失值→编码分类特征→特征缩放。

在Python中实现数据标准化和归一化,我们通常会用到Scikit-learn这个强大的库。它提供了非常方便的工具,比如StandardScaler用于标准化,以及MinMaxScaler用于归一化。这两种操作都是数据预处理的关键步骤,能帮助我们的机器学习模型更好地理解和学习数据。

数据标准化和归一化本质上都是对特征进行缩放,让它们落入一个特定的范围或分布中。这对于许多机器学习算法来说至关重要,尤其是那些基于距离计算或梯度下降的算法。
数据标准化 (Standardization)
标准化(也称Z-score标准化)是将数据转换成均值为0、标准差为1的分布。它的公式是:x_scaled = (x - mean) / std_dev。
在Python中,使用sklearn.preprocessing.StandardScaler:

import numpy as np
from sklearn.preprocessing import StandardScaler
# 假设我们有一些数据,比如特征X
data = np.array([[100], [150], [200], [120], [180]])
# 初始化StandardScaler
scaler = StandardScaler()
# 对数据进行拟合和转换
# fit_transform会先计算数据的均值和标准差,然后应用转换
scaled_data = scaler.fit_transform(data)
print("原始数据:\n", data)
print("标准化后的数据:\n", scaled_data)
# 验证均值和标准差
print("标准化后数据的均值:", scaled_data.mean())
print("标准化后数据的标准差:", scaled_data.std())你会发现,标准化后的数据,其均值非常接近0,标准差非常接近1。
立即学习“Python免费学习笔记(深入)”;
数据归一化 (Normalization)
归一化(也称Min-Max归一化)是将数据缩放到一个固定的范围,最常见的是[0, 1]或[-1, 1]。它的公式是:x_scaled = (x - min) / (max - min)。
在Python中,使用sklearn.preprocessing.MinMaxScaler:

import numpy as np
from sklearn.preprocessing import MinMaxScaler
# 假设还是同样的数据
data = np.array([[100], [150], [200], [120], [180]])
# 初始化MinMaxScaler,默认范围是[0, 1]
min_max_scaler = MinMaxScaler()
# 对数据进行拟合和转换
normalized_data = min_max_scaler.fit_transform(data)
print("原始数据:\n", data)
print("归一化后的数据:\n", normalized_data)
# 验证最小值和最大值
print("归一化后数据的最小值:", normalized_data.min())
print("归一化后数据的最大值:", normalized_data.max())这里,归一化后的数据会被压缩到0到1之间。选择哪种方法,往往取决于你使用的具体算法以及数据的特性。
这个问题其实挺核心的。我个人在处理数据的时候,几乎每次都会考虑这一步。想象一下,如果你的数据集里,一个特征是“收入”(可能几万到几十万),另一个是“年龄”(几十岁),这两个特征的数值范围差异巨大。
本系统经过多次升级改造,系统内核经过多次优化组合,已经具备相对比较方便快捷的个性化定制的特性,用户部署完毕以后,按照自己的运营要求,可实现快速定制会费管理,支持在线缴费和退费功能财富中心,管理会员的诚信度数据单客户多用户登录管理全部信息支持审批和排名不同的会员级别有不同的信息发布权限企业站单独生成,企业自主决定更新企业站信息留言、询价、报价统一管理,分系统查看分类信息参数化管理,支持多样分类信息,
0
很多机器学习算法,尤其是那些依赖于距离计算的(比如K近邻KNN、支持向量机SVM),或者通过梯度下降优化的(比如线性回归、逻辑回归、神经网络),会因为特征的量纲差异而表现不佳。收入这个特征的数值范围太大,它在距离计算时会占据主导地位,导致年龄这样的特征几乎被“忽略”掉。这显然不是我们希望看到的,因为每个特征可能都蕴含着有价值的信息。
再比如,神经网络的梯度下降过程,如果特征值范围差异大,梯度可能会在某些维度上非常大,导致训练不稳定,甚至无法收敛。标准化或归一化把所有特征都拉到一个相似的尺度上,避免了量纲差异带来的偏倚,让模型能够公平地对待每个特征,从而提升模型的训练效率、稳定性和最终的预测性能。这就像是给所有参赛选手都设定了相同的起跑线,比赛才能更公平。
这确实是初学者常问的问题,也是我刚开始接触数据预处理时纠结的地方。简单来说,它们处理数据的方式不同,适用场景也因此有了区分。
标准化 (Standardization): 它把数据转换成均值为0,标准差为1的分布。这个过程不会改变数据的分布形态,只是平移和缩放。
归一化 (Normalization): 它把数据缩放到一个固定的区间,通常是[0, 1]或[-1, 1]。
我的选择策略: 在实际项目中,我通常会先考虑标准化。因为它对异常值的鲁棒性更好,而且大多数情况下,它对各种机器学习算法都表现良好。如果模型表现不佳,或者我明确知道某个算法需要特定范围的输入(例如某些深度学习模型的特定层),我才会尝试归一化。有时候,甚至需要尝试两种方法,通过交叉验证来评估哪种对当前任务效果最好。没有一劳永逸的答案,数据科学很多时候就是这样,需要一点点实验和调整。
这是数据预处理中一个非常现实且关键的问题,因为实际数据往往不是那么“干净”。如果直接把含有非数值型数据或缺失值的特征丢给StandardScaler或MinMaxScaler,Python会报错。这些缩放器只能处理数值型数据。
非数值型数据 (Categorical Data): 像“颜色”(红、绿、蓝)或“城市”(北京、上海)这类非数值型数据,是不能直接进行标准化或归一化的。它们代表的是类别,而不是数值大小。
缺失值 (Missing Values):
数据集中经常会有缺失值(比如NaN,Not a Number)。缩放器无法处理这些缺失值。
NaN,然后才能安全地进行标准化或归一化。所以,一个完整的预处理流程通常是:处理缺失值 -> 编码非数值型数据 -> 对数值型特征进行标准化/归一化。这个顺序很重要,不能颠倒。
以上就是怎样用Python实现数据标准化和归一化?的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号