mysql大结果集保存到es处理方法


转自:https://blog.csdn.net/seven_3306/article/details/9303879

---  避免出现oom

在处理mysql数据同步到es上时遇到的问题和解决方案:

最初在使用的是JPA数据连接处理,先分页查询出数据,然后在转成ES需要的数据格式

这里用的是最low的JSON转换

JSONArray.parseArray(JSON.toJSONString(list),Object.class)

然后在保存到es中,此处的弊端:

  1.读取mysql的list缓存在内存中,在通过json转换,太耗内存

  2.mysql读取方式使用limit分页,查询效率低下

针对第二点可以优化:(避免使用limit 20000,1000,因为使用limitmysql会扫描前20000后开始往后取1000)

  如果id的int或long型,且唯一

  查询sql可以通过id排序(这里使用的是正序),第一次取id>0,其后每次的条件都是id>取出最后一个对象的id,然后使用limit 0,1000结尾

但是如果使用mysql的jdbc fetch的流数据接收方式,就可以一次查询亿万条数据,不会在连接上耗费太多时间

PreparedStatement preparedStatement = jdbcTemplate.getDataSource().getConnection().prepareStatement(sql, ResultSet.TYPE_FORWARD_ONLY, ResultSet.CONCUR_READ_ONLY);
//这里设置成50000是不生效的 preparedStatement.setFetchSize(Integer.MIN_VALUE); preparedStatement.setFetchDirection(ResultSet.FETCH_REVERSE); ResultSet resultSet
= preparedStatement.executeQuery(); List rs = new ArrayList(); while (resultSet.next()) {   UserEs userEs = new UserEs(); userEs .setId(resultSet.getInt("id")); rs.add(anchorEs); if(rs.size()>=50000){   es.saveAll(rs); rs = new ArrayList(); } }

最后这个方法就规避了mysql查询出来数据与es存储对象转换的问题

jdbcTemplate.query(connection ->{
                PreparedStatement preparedStatement = connection.prepareStatement(sql, ResultSet.TYPE_FORWARD_ONLY, ResultSet.CONCUR_READ_ONLY);
                preparedStatement.setFetchSize(Integer.MIN_VALUE);
                preparedStatement.setFetchDirection(ResultSet.FETCH_REVERSE);
                return preparedStatement;
            },resultSet-> {
          List rs = new ArrayList();
          while (resultSet.next()) {
          UserEs userEs = new UserEs();
           userEs .setId(resultSet.getInt("id"));
           rs.add(anchorEs);
           if(rs.size()>=50000){
             es.saveAll(rs);
              rs = new ArrayList();
           }
        }    
     });

相关