博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
[pyMongo]insert_many的Bulkwrite实现机制
阅读量:5080 次
发布时间:2019-06-12

本文共 837 字,大约阅读时间需要 2 分钟。

在SQL中,insert many的操作可能会出现插入数据量过大的问题。

假设我构造了一个128M的insert语句,SQL或者driver是如何处理的?MySQL Driver对insert语句的数据量大小限制是多少?

翻阅了相关的文档,并没有发现明确的答案。

仅查到配置项中有一个insert_buffer的配置项,默认项是8M。

猜测当insert语句中的数据过多,driver会循环处理数据,每当数据块达到8M时,会自动执行commit操作,进程suspend,等待数据库操作结束后,再继续读入数据。

 

pyMongo对这个问题的操作解释的十分明确。

pyMongo在实现BulkWrite操作时,会自动将数据划分成小块进行插入,避免插入数据过大的问题。

具体可看pyMongo对BulkWrite做的说明:

"PyMongo will automatically split the batch into smaller sub-batches based on the maximum message size accepted by MongoDB, supporting very large bulk insert operations."

在网上看到有人将数据分块后进行循环插入,即:

buffer = []for item in data:    buffer.append(item)    if len(buffer) == 20000:        
.insert_many(buffer) buffer =[]  

我不确定MongoDB本身在提供Driver API的时候有没有考虑buffer过大的处理问题。

不过如果使用pyMongo来连接Mongo的话,自己做数据拆分的步骤是多余的。

转载于:https://www.cnblogs.com/oDoraemon/p/9994072.html

你可能感兴趣的文章
WebDriverExtensionsByC#
查看>>
我眼中的技术地图
查看>>
lc 145. Binary Tree Postorder Traversal
查看>>
sublime 配置java运行环境
查看>>
在centos上开关tomcat
查看>>
重启rabbitmq服务
查看>>
正则表达式(进阶篇)
查看>>
无人值守安装linux系统
查看>>
【传道】中国首部淘宝卖家演讲公开课:农业本该如此
查看>>
jQuery应用 代码片段
查看>>
MVC+Servlet+mysql+jsp读取数据库信息
查看>>
黑马程序员——2 注释
查看>>
用OGRE1.74搭建游戏框架(三)--加入人物控制和场景
查看>>
转化课-计算机基础及上网过程
查看>>
android dialog使用自定义布局 设置窗体大小位置
查看>>
ionic2+ 基础
查看>>
互联网模式下我们更加应该“专注”
查看>>
myeclipse集成jdk、tomcat8、maven、svn
查看>>
查询消除重复行
查看>>
Win 10 文件浏览器无法打开
查看>>