怎样用Python实现数据标准化和归一化?

蓮花仙者
发布: 2025-07-28 09:17:01
原创
476人浏览过

python中使用scikit-learn实现数据标准化和归一化,1. 标准化通过standardscaler将数据转换为均值为0、标准差为1的分布,适用于对异常值不敏感、分布不确定或基于梯度下降的模型;2. 归一化通过minmaxscaler将数据缩放到[0,1]区间,适用于需明确范围或无显著异常值的场景;3. 非数值型数据需先进行独热编码或标签编码后再缩放;4. 缺失值需先填充或删除,确保数据完整后再进行标准化或归一化,整体流程为处理缺失值→编码分类特征→特征缩放。

怎样用Python实现数据标准化和归一化?

在Python中实现数据标准化和归一化,我们通常会用到Scikit-learn这个强大的库。它提供了非常方便的工具,比如StandardScaler用于标准化,以及MinMaxScaler用于归一化。这两种操作都是数据预处理的关键步骤,能帮助我们的机器学习模型更好地理解和学习数据。

怎样用Python实现数据标准化和归一化?

解决方案

数据标准化和归一化本质上都是对特征进行缩放,让它们落入一个特定的范围或分布中。这对于许多机器学习算法来说至关重要,尤其是那些基于距离计算或梯度下降的算法。

数据标准化 (Standardization) 标准化(也称Z-score标准化)是将数据转换成均值为0、标准差为1的分布。它的公式是:x_scaled = (x - mean) / std_dev。 在Python中,使用sklearn.preprocessing.StandardScaler

怎样用Python实现数据标准化和归一化?
import numpy as np
from sklearn.preprocessing import StandardScaler

# 假设我们有一些数据,比如特征X
data = np.array([[100], [150], [200], [120], [180]])

# 初始化StandardScaler
scaler = StandardScaler()

# 对数据进行拟合和转换
# fit_transform会先计算数据的均值和标准差,然后应用转换
scaled_data = scaler.fit_transform(data)

print("原始数据:\n", data)
print("标准化后的数据:\n", scaled_data)
# 验证均值和标准差
print("标准化后数据的均值:", scaled_data.mean())
print("标准化后数据的标准差:", scaled_data.std())
登录后复制

你会发现,标准化后的数据,其均值非常接近0,标准差非常接近1。

立即学习Python免费学习笔记(深入)”;

数据归一化 (Normalization) 归一化(也称Min-Max归一化)是将数据缩放到一个固定的范围,最常见的是[0, 1]或[-1, 1]。它的公式是:x_scaled = (x - min) / (max - min)。 在Python中,使用sklearn.preprocessing.MinMaxScaler

怎样用Python实现数据标准化和归一化?
import numpy as np
from sklearn.preprocessing import MinMaxScaler

# 假设还是同样的数据
data = np.array([[100], [150], [200], [120], [180]])

# 初始化MinMaxScaler,默认范围是[0, 1]
min_max_scaler = MinMaxScaler()

# 对数据进行拟合和转换
normalized_data = min_max_scaler.fit_transform(data)

print("原始数据:\n", data)
print("归一化后的数据:\n", normalized_data)
# 验证最小值和最大值
print("归一化后数据的最小值:", normalized_data.min())
print("归一化后数据的最大值:", normalized_data.max())
登录后复制

这里,归一化后的数据会被压缩到0到1之间。选择哪种方法,往往取决于你使用的具体算法以及数据的特性。

为什么数据需要标准化或归一化?

这个问题其实挺核心的。我个人在处理数据的时候,几乎每次都会考虑这一步。想象一下,如果你的数据集里,一个特征是“收入”(可能几万到几十万),另一个是“年龄”(几十岁),这两个特征的数值范围差异巨大。

网龙b2b仿阿里巴巴电子商务平台
网龙b2b仿阿里巴巴电子商务平台

本系统经过多次升级改造,系统内核经过多次优化组合,已经具备相对比较方便快捷的个性化定制的特性,用户部署完毕以后,按照自己的运营要求,可实现快速定制会费管理,支持在线缴费和退费功能财富中心,管理会员的诚信度数据单客户多用户登录管理全部信息支持审批和排名不同的会员级别有不同的信息发布权限企业站单独生成,企业自主决定更新企业站信息留言、询价、报价统一管理,分系统查看分类信息参数化管理,支持多样分类信息,

网龙b2b仿阿里巴巴电子商务平台 0
查看详情 网龙b2b仿阿里巴巴电子商务平台

很多机器学习算法,尤其是那些依赖于距离计算的(比如K近邻KNN、支持向量机SVM),或者通过梯度下降优化的(比如线性回归、逻辑回归、神经网络),会因为特征的量纲差异而表现不佳。收入这个特征的数值范围太大,它在距离计算时会占据主导地位,导致年龄这样的特征几乎被“忽略”掉。这显然不是我们希望看到的,因为每个特征可能都蕴含着有价值的信息。

再比如,神经网络的梯度下降过程,如果特征值范围差异大,梯度可能会在某些维度上非常大,导致训练不稳定,甚至无法收敛。标准化或归一化把所有特征都拉到一个相似的尺度上,避免了量纲差异带来的偏倚,让模型能够公平地对待每个特征,从而提升模型的训练效率、稳定性和最终的预测性能。这就像是给所有参赛选手都设定了相同的起跑线,比赛才能更公平。

标准化和归一化有什么区别,我该如何选择?

这确实是初学者常问的问题,也是我刚开始接触数据预处理时纠结的地方。简单来说,它们处理数据的方式不同,适用场景也因此有了区分。

标准化 (Standardization): 它把数据转换成均值为0,标准差为1的分布。这个过程不会改变数据的分布形态,只是平移和缩放。

  • 优点:对异常值不那么敏感。因为它是基于均值和标准差来缩放的,即使有几个极端值,它们对整体均值和标准差的影响相对有限,不会像归一化那样把异常值也紧紧地压缩到固定范围的边缘。
  • 适用场景
    • 当你对数据的分布没有明确假设时(比如不确定数据是否服从正态分布)。
    • 算法对特征的方差敏感,比如主成分分析(PCA)。
    • 神经网络,因为它可以帮助模型更快地收敛。
    • 算法假设数据是正态分布的,即使数据不是严格的正态分布,标准化也能使其更接近这个假设。

归一化 (Normalization): 它把数据缩放到一个固定的区间,通常是[0, 1]或[-1, 1]。

  • 优点:简单直观,能将所有数据点映射到预设的区间内。
  • 缺点:对异常值非常敏感。如果数据中有一个极大的异常值,它会把所有其他正常数据点都压缩在一个非常小的子区间内,导致大部分数据点的值非常接近,从而丢失了它们之间的相对差异。
  • 适用场景
    • 当你需要将数据映射到一个明确的固定范围时,比如图像处理中像素值通常在[0, 255]或[0, 1]。
    • 某些算法明确要求输入特征在特定范围内,比如一些神经网络的激活函数(如Sigmoid函数,其输出范围是[0, 1])。
    • 当数据分布已知且没有显著异常值时。

我的选择策略: 在实际项目中,我通常会先考虑标准化。因为它对异常值的鲁棒性更好,而且大多数情况下,它对各种机器学习算法都表现良好。如果模型表现不佳,或者我明确知道某个算法需要特定范围的输入(例如某些深度学习模型的特定层),我才会尝试归一化。有时候,甚至需要尝试两种方法,通过交叉验证来评估哪种对当前任务效果最好。没有一劳永逸的答案,数据科学很多时候就是这样,需要一点点实验和调整。

处理非数值型数据和缺失值对标准化/归一化的影响?

这是数据预处理中一个非常现实且关键的问题,因为实际数据往往不是那么“干净”。如果直接把含有非数值型数据或缺失值的特征丢给StandardScalerMinMaxScaler,Python会报错。这些缩放器只能处理数值型数据。

非数值型数据 (Categorical Data): 像“颜色”(红、绿、蓝)或“城市”(北京、上海)这类非数值型数据,是不能直接进行标准化或归一化的。它们代表的是类别,而不是数值大小。

  • 处理方式:在进行任何缩放操作之前,你必须将这些类别数据转换为数值形式。最常见的方法是:
    • 独热编码 (One-Hot Encoding):将每个类别转换为一个独立的二进制特征(0或1)。比如“颜色”会变成“颜色_红”、“颜色_绿”、“颜色_蓝”三个新特征。这是处理无序分类特征的常用方法。
    • 标签编码 (Label Encoding):将每个类别映射到一个整数。比如“红”->0,“绿”->1,“蓝”->2。这种方法适用于有序分类特征,或者当算法本身能够处理序数关系时。 转换完成后,这些新的数值特征(特别是独热编码后的)就可以与其他数值特征一起进行标准化或归一化了。

缺失值 (Missing Values): 数据集中经常会有缺失值(比如NaN,Not a Number)。缩放器无法处理这些缺失值。

  • 处理方式:在进行标准化或归一化之前,必须先处理缺失值。常见的策略有:
    • 删除 (Deletion):如果缺失值数量很少,或者你认为缺失的这些行或列对整体分析影响不大,可以直接删除包含缺失值的行或列。但这可能导致信息丢失。
    • 填充 (Imputation):这是更常用的方法。用某个统计量(如均值、中位数、众数)或者通过更复杂的模型(如K近邻填充、回归填充)来填补缺失值。
      • 均值/中位数填充:对于数值型特征,用该特征的均值或中位数来填充缺失值。中位数对异常值更鲁棒。
      • 众数填充:对于分类特征,可以用众数来填充。
      • 固定值填充:用一个特定的值(比如0或-1)来填充,但这需要谨慎,确保这个值不会引入新的偏差。
      • 模型预测填充:使用机器学习模型来预测缺失值,这通常更复杂但可能更准确。 处理完缺失值后,确保所有特征都是数值类型,并且没有NaN,然后才能安全地进行标准化或归一化。

所以,一个完整的预处理流程通常是:处理缺失值 -> 编码非数值型数据 -> 对数值型特征进行标准化/归一化。这个顺序很重要,不能颠倒。

以上就是怎样用Python实现数据标准化和归一化?的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号