
在实际数据处理中,尤其是在处理来自遗留系统或不同来源的数据时,csv文件经常会出现数据格式不一致的问题。一个典型的场景是,文件中的不同行可能包含不同数量的字段,导致数据列无法直接对齐。例如,某些行可能只有10个字段,而另一些行可能有14个甚至更多,且字段的含义可能因其位置而异。这种非结构化的数据给后续的数据分析和处理带来了巨大障碍。
考虑以下示例数据,其中包含不同长度的行:
30,1204,PO,71100,147130,I09,B10,OC,350,20105402 31,1221,PO,70400,147170,I09,B10,OC,500,20105402 32,1223,SI,70384,147122,I09,B10,OC,500,PN,3,BO,OI,20105402 38,1307,SI,70379,146041,I09,B10,OC,500,21,BH,1,BO,195,40,SW,20105402 49,1405,LD,2,70119,148280,I10,B10,OC,0000,20105403
从上述数据可以看出,第一行有10个字段,第三行有14个字段,第四行有17个字段。在缺乏字段语义信息的情况下,直接尝试对齐这些数据是极其困难的。
由于我们无法预知每个字段的实际含义,最直接且安全的方法是首先将数据根据其每行的字段数量进行分组。这样,所有具有相同字段数量的行将被归为一组。在每个组内部,字段的位置至少在结构上是统一的,这为后续的细致清洗和对齐提供了基础。
这种方法的好处在于:
我们将使用Python的pandas库来处理和组织数据。pandas的DataFrame结构非常适合处理表格数据。
首先,导入StringIO用于从字符串读取数据,以及pandas库。
from io import StringIO import pandas as pd data = """ 30,1204,PO,71100,147130,I09,B10,OC,350,20105402 31,1221,PO,70400,147170,I09,B10,OC,500,20105402 32,1223,SI,70384,147122,I09,B10,OC,500,PN,3,BO,OI,20105402 33,1224,SI,70392,147032,I09,B10,OC,500,PN,1,BO,OI,20105402 34,1227,PO,70400,146430,I09,B10,PF,500,20105402 35,1241,PO,71100,146420,I09,B10,PF,500,20105402 36,1249,PO,71100,146000,I09,B10,SN,500,20105402 37,1305,PO,70400,146000,I09,B10,OC,500,20105402 38,1307,SI,70379,146041,I09,B10,OC,500,21,BH,1,BO,195,40,SW,20105402 39,1312,SD,70372,146062,I09,B10,OC,500,20105402 40,1332,SI,70334,146309,I09,B10,OC,500,PN,4,BO,OI,20105402 41,1332,SI,70334,146309,I09,B10,OC,500,PN,5,BO,OI,20105403 42,1333,SI,70333,146324,I09,B10,OC,500,PN,2,BO,OI,20105403 43,1334,SI,70328,146348,I09,B10,OC,500,PN,1,BO,OI,20105403 44,1335,SI,70326,146356,I09,B10,OC,500,PN,1,BO,OI,20105403 45,1336,SI,70310,146424,I09,B10,OC,500,PN,1,BO,OI,20105403 46,1338,SI,70302,146457,I10,B10,OC,500,PN,1,BO,OI,20105403 47,1338,SI,70301,146464,I10,B10,OC,500,PN,1,BO,OI,20105403 48,1340,SI,70295,146503,I10,B10,OC,500,PN,8,BO,OI,20105403 49,1405,LD,2,70119,148280,I10,B10,OC,0000,20105403 01,1024,LA,1R,70120,148280,B10,OC,0000,21105501 02,1039,PO,70340,149400,I10,B10,OC,500,21105501 03,1045,SI,70378,149025,I10,B07,PF,300,PN,17,BO,OI,21105501 """
核心逻辑是遍历每一行,根据逗号分隔符将其拆分为字段列表,然后将这些列表存储在一个字典中,其中字典的键是字段的数量,值是包含所有具有该字段数量的行的列表。
all_data = {}
for line in map(str.strip, data.splitlines()): # 遍历每一行,并去除首尾空白
if line == "": # 跳过空行
continue
line_fields = line.split(",") # 按逗号分隔字段
# 使用 setdefault 将具有相同字段数量的行归类到同一个列表中
all_data.setdefault(len(line_fields), []).append(line_fields)
# 遍历字典,为每个字段数量组创建一个 Pandas DataFrame
for num_fields, rows in all_data.items():
df = pd.DataFrame(rows)
print(f"--- Data with {num_fields} fields ---")
print(df)
print("-" * 80)上述代码将输出多个DataFrame,每个DataFrame对应一种字段数量。例如:
--- Data with 10 fields ---
0 1 2 3 4 5 6 7 8 9
0 30 1204 PO 71100 147130 I09 B10 OC 350 20105402
1 31 1221 PO 70400 147170 I09 B10 OC 500 20105402
2 34 1227 PO 70400 146430 I09 B10 PF 500 20105402
...
--- Data with 14 fields ---
0 1 2 3 4 5 6 7 8 9 10 11 12 13
0 32 1223 SI 70384 147122 I09 B10 OC 500 PN 3 BO OI 20105402
1 33 1224 SI 70392 147032 I09 B10 OC 500 PN 1 BO OI 20105402
...
--- Data with 17 fields ---
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
0 38 1307 SI 70379 146041 I09 B10 OC 500 21 BH 1 BO 195 40 SW 20105402
--------------------------------------------------------------------------------
--- Data with 11 fields ---
0 1 2 3 4 5 6 7 8 9 10
0 49 1405 LD 2 70119 148280 I10 B10 OC 0000 20105403
--------------------------------------------------------------------------------可以看到,原始数据已经被成功地分成了几组,每组内部的行都具有相同的字段数量,并被组织成了独立的DataFrame。
上述分组是数据清洗的第一步。要真正实现字段对齐,还需要结合对数据本身的理解(领域知识)。以下是一些基于分组结果的进一步清洗策略:
这是最关键的一步。如果没有关于每个字段含义的上下文信息,任何自动对齐都可能导致错误。
一旦通过领域知识确定了所有字段的逻辑对齐方式,就可以将这些独立的DataFrame合并成一个统一的DataFrame。
通过这种按字段数量分组的策略,我们能够将复杂的CSV数据清洗任务分解为更易于管理和分析的小块,为进一步的、基于业务逻辑的字段对齐和数据规范化打下了坚实的基础。
以上就是程序化处理CSV文件中的不一致字段对齐问题的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号