博客
关于我
Python读取大文件
阅读量:648 次
发布时间:2019-03-15

本文共 890 字,大约阅读时间需要 2 分钟。

Python读取大文件的高效方法

当你试图用Python读取2GB或更大的文件时,使用普通的方法(如read和readlines)可能会抛出MemoryError,说明内存不足以加载整个文件。这通常发生在文件太大,无法完全读取时。

逐行读取方法

采用逐行读取的方式,可以有效减少内存占用。具体实现如下:

with open('filename.txt', 'r', encoding='utf-8') as f:    while True:        line = f.readline()        if not line:            break        print(line)

这种方法每次只读取一行内容,适合处理大文件。循环终止条件为文件结束。

指定长度读取方法

如果需要灵活控制读取长度,可以采用每次读取固定字节数的方式:

with open('filename.txt', 'r', encoding='utf-8') as f:    while True:        data = f.read(1024)        if not data:            break        print(data)

这种方式每次读取1024字节,从而分批处理大文件。

自动管理优化方法

更高效的方式是利用Python的内置文件处理功能,结合with语句和生成器。使用for循环遍历文件:

with open('filename.txt', 'r', encoding='utf-8') as f:    for line in f:        # 对每行内容进行处理        do_something(line)

这种方法利用了效率高的IO缓存机制,自动处理大文件,无需担心内存不足。

注意事项

  • 使用with语句来确保文件在错误或正常结束时被自动关闭。
  • 生成器方法for line in f自动管理内存,适合大文件处理,避免一次性读取过大文件内容。

通过以上方法,可以高效且安全地读取大文件,合理分配内存,避免内存错误。

转载地址:http://nmrlz.baihongyu.com/

你可能感兴趣的文章
NLP采用Bert进行简单文本情感分类
查看>>
NLP问答系统:使用 Deepset SQUAD 和 SQuAD v2 度量评估
查看>>
NLP项目:维基百科文章爬虫和分类【02】 - 语料库转换管道
查看>>
NLP:使用 SciKit Learn 的文本矢量化方法
查看>>
nmap 使用方法详细介绍
查看>>
Nmap扫描教程之Nmap基础知识
查看>>
nmap指纹识别要点以及又快又准之方法
查看>>
Nmap渗透测试指南之指纹识别与探测、伺机而动
查看>>
Nmap端口扫描工具Windows安装和命令大全(非常详细)零基础入门到精通,收藏这篇就够了
查看>>
NMAP网络扫描工具的安装与使用
查看>>
NMF(非负矩阵分解)
查看>>
nmon_x86_64_centos7工具如何使用
查看>>
NN&DL4.1 Deep L-layer neural network简介
查看>>
NN&DL4.3 Getting your matrix dimensions right
查看>>
NN&DL4.7 Parameters vs Hyperparameters
查看>>
NN&DL4.8 What does this have to do with the brain?
查看>>
nnU-Net 终极指南
查看>>
No 'Access-Control-Allow-Origin' header is present on the requested resource.
查看>>
NO 157 去掉禅道访问地址中的zentao
查看>>
no available service ‘default‘ found, please make sure registry config corre seata
查看>>