博客
关于我
Python读取大文件
阅读量:648 次
发布时间:2019-03-15

本文共 890 字,大约阅读时间需要 2 分钟。

Python读取大文件的高效方法

当你试图用Python读取2GB或更大的文件时,使用普通的方法(如read和readlines)可能会抛出MemoryError,说明内存不足以加载整个文件。这通常发生在文件太大,无法完全读取时。

逐行读取方法

采用逐行读取的方式,可以有效减少内存占用。具体实现如下:

with open('filename.txt', 'r', encoding='utf-8') as f:    while True:        line = f.readline()        if not line:            break        print(line)

这种方法每次只读取一行内容,适合处理大文件。循环终止条件为文件结束。

指定长度读取方法

如果需要灵活控制读取长度,可以采用每次读取固定字节数的方式:

with open('filename.txt', 'r', encoding='utf-8') as f:    while True:        data = f.read(1024)        if not data:            break        print(data)

这种方式每次读取1024字节,从而分批处理大文件。

自动管理优化方法

更高效的方式是利用Python的内置文件处理功能,结合with语句和生成器。使用for循环遍历文件:

with open('filename.txt', 'r', encoding='utf-8') as f:    for line in f:        # 对每行内容进行处理        do_something(line)

这种方法利用了效率高的IO缓存机制,自动处理大文件,无需担心内存不足。

注意事项

  • 使用with语句来确保文件在错误或正常结束时被自动关闭。
  • 生成器方法for line in f自动管理内存,适合大文件处理,避免一次性读取过大文件内容。

通过以上方法,可以高效且安全地读取大文件,合理分配内存,避免内存错误。

转载地址:http://nmrlz.baihongyu.com/

你可能感兴趣的文章
pandas 数据框至海运分组条形图
查看>>
pandas 时间序列重新采样结束给定的一天
查看>>
pandas 根据不是常量的第三列的值将值从一列复制到另一列
查看>>
pandas 根据值从多列中的一列查找
查看>>
Pandas 根据布尔条件选择行和列
查看>>
pandas 滚动窗口 - datetime64[ns] 未实现
查看>>
pandas 版本兼容特定的蟒蛇和NumPy配置吗?
查看>>
pandas 生成excel多级表头
查看>>
Pandas 的 DataFrame 详解-ChatGPT4o作答
查看>>
pandas 读取excel数据,以字典形式输出
查看>>
Pandas 读取具有浮点值的 csv 文件会导致奇怪的舍入和小数位数
查看>>
pandas 适用,但仅适用于满足条件的行
查看>>
pandas 重新采样到每月的特定工作日
查看>>
pandas :按移位分组和累加和(GroupBy Shift And Cumulative Sum)
查看>>
pandas :检测一个DF和另一个DF之间缺失的列
查看>>
Pandas-从具有嵌套列表列表的现有列创建动态列时出错
查看>>
Pandas-通过对列和索引的值求和来合并两个数据框
查看>>
pandas.columns、get_dummies等用法
查看>>
pandas.DataFrame.copy(deep=True) 实际上并不创建深拷贝
查看>>
pandas.read_csv()的详解-ChatGPT4o作答
查看>>