uuu1210的gravatar头像
uuu1210 2015-03-24 14:53:24

mongodb数据库批量插入海量数据时为什么有少部分数据丢失?

mongodb数据库批量插入,几十万数据,总是丢失几十条数据。。。。

所有回答列表(5)
javaframe的gravatar头像
javaframe  LV12 2015年3月26日

数据库语句有些没有执行就会出现这种情况

评论(1) 最佳答案
wwh的gravatar头像
wwh  LV2 2015年3月24日

看看事物。。。是分批次 插入呢。。自己理解的。 没用过nosql哈哈

最代码官方的gravatar头像
最代码官方  LV168 2015年3月26日

可以这么排查下。

1.先少批量执行看是否有异常

》确认是否是语法问题

2.把大批量分n批量执行看是否是某一批有问题

》确认是否是操作超时导致

》确认是否是某些特殊数据导致

3.确认是否是某批量里面的数据有异常导致异常退出没写入之后的数据

》确认是否是代码的严密性问题,异常try catch

4.生产环境上只能多输出日志来确认问题

5.可以在本地模拟下生产环境

Tonfay的gravatar头像
Tonfay  LV26 2015年3月26日

我想问问,这十几条数据,是否都是固定的 这十几条数据插入不进去?还是随机十几条?

为什么不考虑,缺的那十几条数据,拿出来,单独往里插一遍,看是否能插入成功呢?

黑客攻城师的gravatar头像
黑客攻城师  LV2 2015年5月29日

这个问题解决了吗??还有就是怎么保证数据的不丢失?

最近浏览
GRHISMY 2020年3月14日
暂无贡献等级
fengbatianxia 2019年12月5日
暂无贡献等级
子不语语不子  LV11 2018年8月31日
18235447337 2017年10月26日
暂无贡献等级
chenwch  LV8 2017年10月17日
hwg119  LV3 2017年2月17日
986871510  LV11 2016年7月5日
云际水流  LV1 2015年10月15日
iam3k  LV4 2015年8月19日
senyzzm  LV6 2015年6月25日
顶部 客服 微信二维码 底部
>扫描二维码关注最代码为好友扫描二维码关注最代码为好友